憨厚的钥匙 · html+css画虚线,实线_html实线_ ...· 1 年前 · |
慈祥的佛珠 · HarmonyOS非UI单元测试在DevEc ...· 1 年前 · |
失恋的包子 · csv文档转换成xls_rongwenbin ...· 1 年前 · |
这是 Azure Databricks 返回的常见命名错误条件的列表。
列或字段不明确且具有匹配项。
对约束的模糊引用。
横向列别名不明确且具有匹配项。
引用不明确,可能是:。
函数在需要常量参数的位置处包含参数。 请单独计算参数,并以常量形式传递结果。
. 如有必要,请将
不支持内置目录。
无法将
为
无法将 Protobuf
无法将 Protobuf 的
无法将 SQL 转换为 Protobuf,因为它未在 ENUM 中定义,因此无法写入
无法将 SQL
无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。
无法解码 URL:
不能删除系统拥有的项。
无法删除名称由 CHECK 约束
以及 PRIMARY KEY 或 FOREIGN KEY 约束共享的约束。 可以通过以下查询删除 PRIMARY KEY 或
FOREIGN KEY 约束:
ALTER TABLE .. DROP PRIMARY KEY 或
ALTER TABLE .. DROP FOREIGN KEY ..
注册函数时无法加载类,请确保它位于类路径上。
无法加载名称为
无法分析十进制
将文件
. 如有必要,请将
无法从安全提供程序读取敏感密钥“
无法在 Hive 元存储对象中引用 Unity Catalog。
不允许跨目录重命名表。
不允许跨元存储服务重命名表。
不允许跨架构重命名表。
无法将
类型
try_cast
来容许格式错误的输入并改为返回 NULL。 如有必要,请将
由于溢出,类型的值无法强制转换为。 使用
try_cast
容许溢出,并返回 NULL。 如有必要,请将
由于发生溢出,无法将类型值插入类型列。 对输入值使用
try_cast
以容许溢出并改为返回 NULL。
列已存在。 请考虑选择其他名称或重命名现有列。
找不到列。 根据 SQL 配置验证列名的拼写和正确性。
此查询的另一个实例刚刚由并发会话启动。
泛型 Spark 连接错误。
有关详细信息,请参阅 CONNECT
表约束仅在 Unity Catalog 中受支持。
无法转换值 (),因为它的格式错误。 请根据语法更正值,或更改其格式。 用于容许格式错误的输入并改为返回 NULL。
无效方案
COPY INTO 源凭据必须指定
复制的文件在并发 COPY INTO 操作中提交。 请稍后再试。
无效方案
COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案
COPY INTO 源加密必须指定“
无效加密选项
除了追加数据外,COPY INTO 不能与其他事务同时运行。 请稍后再试。
COPY INTO 无法加载其状态,超过最大重试次数。
源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 中的一种。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令
set spark.databricks.delta.copyInto.formatCheck.enabled = false
来关闭此检查。
CREATE TABLE 列多次指定了选项“”,这是无效的指定
未在帐户中启用 Databricks Delta。
由于数据类型不匹配,无法进行解析:
有关更多详细信息,请参阅 DATATYPE_MISMATCH
DataType
日期/时间操作溢出:
小数精度
默认数据库不存在,请先创建该数据库,或将默认数据库更改为“default”。
被零除。 使用
try_divide
容许除数为 0,并返回 NULL。 如有必要,请将
发现重复键
函数
索引 0 无效。 索引应 < 0 或 > 0(第一个元素的索引为 1)。
暂存
找不到 Spark SQL 内部表示形式的类型编码器。 考虑将输入类型更改为 数据类型 支持的类型之一。
EXCEPT 列
EXCEPT 列表中的列必须非重复且不重叠。
EXCEPT 列 [
无法解析 EXCEPT 子句中的列/字段名称。 你是否指的是下列其中一项:[]?
注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。
外部表不支持方案。
无法执行用户定义的函数 (
为调用准备函数失败。 请仔细检查函数的参数。
未能将
在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。 若要了解有关仓库类型的详细信息,请参阅
在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。 若要了解有关 Unity Catalog 的详细信息,请参阅
在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。
暂存路径
不允许对以下项执行该操作:
外键父列与主键子列不匹配。
无效的 Graphite 协议:
Graphite 接收器需要“
在分组列
grouping_id (
分组集大小不能大于
GROUP BY 中不允许使用聚合函数,但找到了
GROUP BY
GROUP BY 位置
无效透视列
检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:
由于升级到,可能会得到其他结果
有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION
rowsPerSecond 的最大偏移量为 ,但当前为 。
rowsPerSecond 的最大偏移量为 ,但“rampUpTimeSeconds”为 。
无法创建索引,因为它已存在。
找不到索引。 .
权限不足:
用户对外部位置的权限不足。
没有所有者。 要求管理员设置所有者。
用户不拥有 。
用户对 没有权限。
的所有者不同于 的所有者。
存储凭据的权限不足。
由于基础安全对象的权限,用户无法启用。
由于基础安全对象的权限,用户无法启用:
被零除。 使用
try_divide
容许除数为 0,并返回 NULL。
SQL 函数
索引
get()
容许访问无效索引上的元素,并改为返回 NULL。 如有必要,请将
索引
try_element_at
容许访问无效索引上的元素,并返回 NULL。 如有必要,请将
无效 Bucket 文件:
预期的格式为 ByteString,但实际为
列或字段的类型是要求的类型。
SYNC 命令的目标目录必须位于 Unity Catalog 中。 已找到。
位置名称不能为空字符串,但已给出
\<location\>
。
无法从 中提取。
字段名称
格式无效:。
有关更多详细信息,请参阅 INVALID_FORMAT
秒的分数必须为零。 有效的范围为 [0, 60]。 如有必要,请将
标识符
\<ident\>
。
输入架构
不允许使用具有 LATERAL 关联的
模式
有关更多详细信息,请参阅 INVALID_LIKE_PATTERN
组聚合 pandas UDF
的特权无效。
是一个无效的属性键,请使用引号,例如 SET =
是一个无效的属性值,请使用引号,例如 SET =
COPY INTO 凭据必须包括 AWS_ACCESS_KEY、AWS_SECRET_KEY 和 AWS_SESSION_TOKEN。
输入架构不是有效的架构字符串。
有关更多详细信息,请参阅 INVALID_SCHEMA
Unity Catalog 不支持作为默认文件方案。
机密查找无效:
有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP
源目录不得位于 SYNC 命令的 Unity Catalog 中。 已找到。
sql()
参数无效。 请考虑将其替换为 SQL 文本语句。
无效的 SQL 函数计划结构
无效的 SQL 语法:
暂存
子查询无效:
有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION
提供的时间戳
类型化文本的值无效:。
源表在 Hive 元存储中,而目标表在 Unity Catalog 中。
WHERE 条件包含无效表达式:。
重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。
无法将托管表命名为
在消息反序列化中检测到格式错误的 Protobuf 消息。 分析模式:
不支持使用存储凭据创建托管表。
非聚合表达式基于不参与 GROUP BY 子句的列。
将列或表达式添加到 GROUP BY、聚合表达式,或者在不关心返回组中哪些值时使用。
查询不包含 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。
CHECK 约束必须具有名称。
未知静态分区列:
不支持修改内置目录。
Databricks Delta 在 load() API 中不支持多个输入路径。
路径:
生成单个数据帧,请加载
具有相应分区筛选器的 Delta 表。 如果多个路径
来自不同的 Delta 表,请使用数据集的 union()/unionByName() API
来合并由单独的 load() API 调用生成的数据帧。
找到至少两个与给定条件匹配的约束。
不允许实现多个 UDF 接口,UDF 类
无法创建命名空间
选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS 子句以容许现有的命名空间。
无法删除命名空间
使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。
找不到命名空间
如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。
若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS。
不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。
当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。
当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。
当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件。
必须为透视值提供文本表达式,但找到的是 。
PARTITION 子句不能包含非分区列:。
在 SQL 上不受支持。
没有适用于 UDAF“
在 Protobuf 架构中找不到
UDF 类
数组或映射位于包含可为空的元素,但要求它不可为 null。
列或字段可为空,但要求它不可为 null。
比较结果为 null。 如果要将 null 处理为 0(相等),可以将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。
不能使用 null 作为映射键。
值不能解释为数字,因为它的位数超过了 38 位。
只能对列数相同的输入执行,但第一个输入包含 列,而 输入包含 列。
操作
在只读会话模式下不受支持。
ORDER BY 位置
语法错误,意外空语句
无法在表
选择其他名称、删除现有分区,或添加 IF NOT EXISTS 子句以容许现有的分区。
在表
请验证分区规范和表名。
若要容许删除时出错,请使用 ALTER TABLE ... DROP IF EXISTS PARTITION。
不允许在表上进行此操作,因为 Unity Catalog 中不支持存储分区元数据。
路径不存在:。
透视值“
找不到依赖项:
读取路径中的 Protobuf 描述符文件时出错:
在 Protobuf 架构中的
在 Protobuf 架构中找到了
字段的类型不匹配:
不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。
无法在描述符中找到消息
尚不支持 Protobuf 类型:
将结果分析为 Arrow 数据集时发生内部错误。
从云存储下载结果集时发生内部错误。
将结果集上传到云存储时发生内部错误。
函数调用具有 和 set,它们是彼此的别名。 请仅设置其中一个。
必须在没有名称的位置
在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:。 请尝试将选项
recursive.fields.max.depth
设置为 0 到 10 之间。 不允许超过 10 个递归级别。
由于未找到
在位置
写入包含保留列
在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除
这些列,或者将
设置为 false 来隐藏这些详细信息。
无法将原始权限
无法创建函数
选择其他名称、删除或替换现有函数,或者添加 IF NOT EXISTS 子句以容许现有的函数。
找不到函数
如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP FUNCTION IF EXISTS。
函数
使用行筛选器或列掩码时出错:
有关更多详细信息,请参阅 ROW_COLUMN_ACCESS
示例数据库/表不支持权限。
用作表达式的子查询返回了多个行。
无法创建架构
选择其他名称、删除现有架构,或添加 IF NOT EXISTS 子句以容许现有的架构。
无法删除架构
使用 DROP SCHEMA … CASCADE 删除架构及其所有对象。
找不到架构
如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。
若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS。
无法初始化架构注册表中的架构。 .
函数的第二个参数需是整数。
访问目标暂存路径
使用 GROUP BY 和序号位置时,不允许在选择列表中使用星号 (*)。
只能在增量实时表和 Databricks SQL 仓库中创建和刷新流式处理表。
对流式处理表进行操作期间出现内部错误:请提交 bug 报告。
不允许该操作:
有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED
查询 [id =
仅 delta 表支持修复表同步元数据命令。
仅 Unity Catalog 表支持修复表同步元数据命令。
源表名称必须与目标表名相同。
无法创建表或视图
选择其他名称、删除或替换现有对象、添加 IF NOT EXISTS 子句以容许预先存在的对象,或添加 OR REFRESH 子句来刷新现有的流式处理表。
找不到表或视图
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。
无法创建临时视图
选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS 子句以容许现有的视图。
CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但为 :
无法使用大小为
Unity Catalog 中不支持存储桶表。
对于 Unity Catalog,请显式指定目录名称。 例如,在主目录上显示授予
your.address@email.com
权限。
在 Unity Catalog 中不支持。
Unity Catalog 中不支持数据源格式。
Unity Catalog 中不支持数据源选项。
Unity Catalog 中不支持嵌套或空命名空间。
无法在 Unity Catalog 对象中引用非 Unity Catalog 对象。
此群集上未启用 Unity Catalog。
用户定义的函数不支持参数默认值。
函数执行失败。
== 错误 ==
== Stacktrace ==
无法获取内存字节,但得到
无法将 SQL 类型
找到未绑定的参数:。 请修复
args
并提供对 SQL 文本语句的映射参数。
找到未闭合的方括号注释。 请在注释的末尾追加 */。
函数的参数需要类型 ,但类型为 。
函数
函数
尝试将
不支持的表。
当未给定
至少需要为 UNPIVOT 指定一个值列,所有列均指定为 ID
逆透视值列必须共享一个最不常见的类型,不包括某些类型:[]
所有逆透视值列的大小必须与值列名称 (
无法识别的 SQL 类型
无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。
无法解析具有名称的列或函数参数。
有关更多详细信息,请参阅 UNRESOLVED_COLUMN
无法使用结构类型列解析具有名称的字段。
有关更多详细信息,请参阅 UNRESOLVED_FIELD
无法将列解析为映射键。 如果键是字符串字面量,请在其周围添加单引号。
有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY
无法解析搜索路径 上的函数。
不支持约束子句。
不支持的约束类型。 仅支持
不支持的数据类型
不支持反序列化程序:
有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER
不支持该功能:
有关详细信息,请参阅 UNSUPPORTED_FEATURE
不支持的用户定义函数类型:
不支持生成器:
有关详细信息,请参阅 UNSUPPORTED_GENERATOR
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用
不支持保存模式
有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE
不支持将数据源
不支持将数据源 用作共享群集上的流式处理源。
函数不支持流式处理。 请删除 STREAM 关键字
不支持的子查询表达式:
有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
不支持
你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。 Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如
udf((x: Int) =\> x, IntegerType)
,NULL 输入的结果为 0。 若要消除此错误,可以:
udf((x: Int) =\> x)
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:
有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED
用户定义函数无效:
有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS
无法创建视图,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。
找不到视图。 请验证架构和目录的拼写和正确性。
如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。
若要容许删除时出错,请使用 DROP VIEW IF EXISTS。
无法创建卷,因为它已存在。
选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。
不支持 WITH CREDENTIAL 语法。
只能在流式处理数据集/数据帧上调用
writeStream
。
函数 的参数数目无效。
有关更多详细信息,请参阅 WRONG_NUM_ARGS
ZOrderBy 列
找不到活动的 SparkSession
当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态
未能添加列,因为名称是保留的。
要添加列
无法添加,因为其父级不是 StructType。 已找到
未在位置
请使用 ALTER TABLE ADD CONSTRAINT 添加 CHECK 约束。
已找到。 生成的列不能使用聚合表达式
ALTER TABLE CHANGE COLUMN 不支持将列
不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称的 Delta 表,可以通过将 设置为 true 来启用它。
不明确的分区列可以是。
CREATE TABLE 包含两个不同的位置:
可以从 CREATE TABLE 语句中删除 LOCATION 子句,或将
为 true 以跳过此检查。
如果表启用了更改数据馈送 (CDF),并且已使用 DROP COLUMN 或 RENAME COLUMN 进行架构更改,则不允许执行操作“”。
在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。
读取的架构: 不兼容的数据架构:。
虽然强烈建议不要这样做,但你也可以通过打开 SQL conf 来强制忽略架构检查,但需自行承担结果可能不正确的风险。
无法删除以下不存在的列的 Bloom 筛选器索引:
无法更改数据类型:
无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION。
“provider”是保留的表属性,不能更改。
无法将 转换为 FileFormat。
无法为以下不存在的列创建 Bloom 筛选器索引:
无法描述视图的历史记录。
无法删除非索引列
无法计算表达式:
需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格
无法在
无法生成表达式
不带生成的列的调用应始终返回每个列的更新表达式
此表配置为仅允许追加。 如果要允许更新或删除,请使用“ALTER TABLE <table_name> SET TBLPROPERTIES (
用户无法指定 Delta 表配置
在事务日志中找到无法转换为相对路径的 uri (
无法与事务日志中找到的当前输入相对化的
路径 (
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("
然后运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("
无法将
无法替换表
无法解析
无法在源查询中解析限定源列
无法将表还原到
无法将表还原到时间戳 (
无法多次设置位置。 已找到
无法更改基于路径的表的位置。
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素
无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射
无法更新 类型的字段
无法更新
无法将所有列用于分区列
无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。
由于数据架构不兼容,检索版本 和 之间的表更改失败。
读取架构处于版本 ,但我们发现版本 处的数据架构不兼容。
如果可能,请使用通过设置为
endVersion
的最终版本的架构来检索表更改,或者联系支持人员。
由于架构更改不兼容,检索版本 和 之间的表更改失败。
你的读取架构处于版本 ,但我们发现版本 处的架构更改不兼容。
如果可能,请分别将查询表从版本 更改为 - 1,从版本 更改为 。
无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。
无法为不存在的表创建检查点。 是否手动删除了 _delta_log 目录中的文件?
检查点的状态与快照状态不匹配。
提供两条路径作为 CLONE 目标,因此使用哪条路径是不明确的。 在提供
路径的同时,还在
未完全复制文件 (
\<config\>
设置为 false。
克隆源 '' 不受支持,其格式为 。
支持的格式为“delta”(任何模式)和“parquet”(仅限浅表)。
无法找到给定 [
\<columnName\>
列
无法从以下 INSERT 列找到目标表的列“”:。 INSERT 子句必须为目标表的所有列指定值。
在下列位置无法找到
应为嵌套数据类型,但找到的类型为 正在查找
嵌套字段中的索引
结构列
无法插入到
在
这些 SET 列 (
约束“”已存在。 请先删除旧约束。
无法从表
在目录中找不到表
使用 CONVERT TO DELTA 时,无法将配置“
\<mode\>
CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换源:
你正在尝试使用 Delta 从
\<path\>
创建外部表
未指定架构。
若要详细了解 Delta,请参阅
你正在尝试使用 Delta 从
%2$s
创建外部表,但 %2$s/_delta_log 中不存在事务日志。
%2$s/_delta_log
. 检查上游作业,确保它正在使用
格式(“delta”)写入,并且该路径是表的根。
若要详细了解 Delta,请参阅
指定的架构与位于
== Specified ==
== Existing ==
== Differences ==
如果打算保留现有架构,可以
从 create table 命令省略该架构。 否则请确保
架构匹配。
指定的分区与 处的现有分区不匹配。
== Specified ==
== Existing ==
指定的属性与位于以下位置的现有属性不匹配:。
== Specified ==
== Existing ==
无法创建表 (‘’)。 关联的位置 (‘’) 不为空,并且它也不是 Delta 表。
无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“”。
无法验证删除向量完整性,CRC 校验和验证失败。
删除矢量完整性检查失败。 遇到大小不匹配的情况。
删除列的索引低于 0
已找到重复列:
INSERT 子句中的重复列名
请在更新表之前删除重复的列。
在表完整性验证期间,无法反序列化已删除的记录计数直方图。
创建 Delta 表时使用的数据没有任何列。
在以下目录中未找到任何文件:。
超过 char/varchar 类型长度限制。 失败的检查:。
无法在生成的列
提取引用时无法找到字段
无法将分区值
\<value\>
强制转换为
在现有目标输出中找不到
在输出计划中无法找到。
无法从给定的文件列表推断架构。
无法合并文件
无法读取文件的页脚:
无法识别谓词 ‘’
需要对最新版本的 Delta 源进行完全扫描,但发现版本的历史扫描
无法合并字段“
未能将路径 () 相对化。 当绝对路径使其进入事务日志时
就会发生这种情况,事务日志以架构
s3://、wasbs:// 或 adls:// 开头。 这是 DBR 5.0 之前存在的 bug。
要解决此问题,请将编写器作业升级到 DBR 5.0,然后运行:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(
如果此表是使用跨文件系统
(不同的 bucket/容器)的浅克隆创建的,并且不在生产环境中使用,则可以
设置 SQL 配置
设置为 true。 使用此 SQL 配置可能会导致意外的数据丢失,
因此我们不建议使用此标志,除非
这是用于测试的浅克隆。
无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:。
无法启用表功能,因为它需要更高的读取器协议版本(当前为 )。 请考虑将表的读取器协议版本升级到 ,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 。
无法启用表功能,因为它需要更高的编写器协议版本(当前为 )。 请考虑将表的编写器协议版本升级到 ,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 。
现有文件路径
无法同时指定文件列表和模式字符串。
无此类文件或目录:
未在候选文件中找到要重写的文件 (
已找到 MapType。 若要访问 MapType 的键或值,请指定一个
后跟列的名称(仅当该列是结构类型时)。
例如 mymap.key.mykey
如果列是基本类型,mymap.key 或 mymap.value 就足够了。
列
生成的列
列
在 dataChange = false 事务中找到的非法文件。 文件:
选项 '' 的值“ ”无效,
对 Delta 表执行
Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为:
() 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。
错误访问 ArrayType。 使用 arrayname.element.elementname 位置
添加到数组。
已找到 ArrayType。 要访问 ArrayType 的元素,请指定
使用
getConf()
而不是 `conf.getConf()
该错误通常在使用 LogStore 默认实现
(即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。
若要获取表更新的事务 ACID 保证,必须使用
适合你的存储系统的正确 LogStore 实现。
请参阅
删除列的索引
添加列
无法写入“
在 INSERT 中未指定列
无效桶计数:
无法在分区列中找到 Bucket 列
间隔不能为 null 或空白。
从起始值到结束值的 CDC 范围无效。 结束值不能早于起始值。
属性名“
在架构列名的“,;{}()\n\t=”中发现无效字符。
CLONE 的目标位置需要是绝对路径或表名。 使用
绝对路径而不是
提交的版本是
检测到不兼容的格式。
在
\<deltaRootPath\>/_delta_log
处发现 Delta 事务日志,
但你正尝试使用格式(“”)访问
\<path\>
。 必须在读取和
写入 delta 表时使用“格式(‘delta’)”。
若要禁用此检查,请设置 spark.databricks.delta.formatCheck.enabled=false
若要详细了解 Delta,请参阅
不支持的格式。 所需版本应该小于或等于 ,但是为 。 请升级到较新版本的 Delta。
生成的列仅受 Delta 支持
生成的列不能使用不存在的列或其他生成的列
幂等 Dataframe 写入的选项无效:
不是有效的 INTERVAL。
无效隔离级别“
无法同时设置
\<classConfig\>
和
\<schemeConfig\>
。 请仅设置其中一组。
你正在尝试使用 Delta 创建托管表
但未指定架构。
若要详细了解 Delta,请参阅
AddFile 包含不同于表分区架构的分区架构
若要禁用此检查,请将
在“,;{}()nt=”中找到了包含无效字符的分区列。 请将名称更改为分区列。 可以通过设置 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。
不支持使用类型列作为分区列。
分区路径片段的形式应为
part1=foo/part2=bar
。 分区路径:
协议版本无法从
Delta 协议版本对于此版本的 Databricks 来说太新了:表需要 ,客户端最高支持 。 请升级到较新版本。
sourceVersion(
函数是 CDC 读取不支持的表值函数。
提供的时间戳
迭代器已关闭
Delta 日志已存在于
如果你从未删除过它,则可能是你的查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略
请使用小于 Int.MaxValue - 8 的限制。
此提交失败,因为它已尝试
这可能是由多个并发提交连续提交 Delta 表
提交开始于版本:
提交失败的版本:
尝试提交的操作数:
尝试此提交所花费的总时间:
文件列表必须最多有 个条目,有 。
无法将十进制类型与不兼容的
MERGE 语句中必须至少包含一个 WHEN 子句。
意外分配密钥:
提交 Delta 表的第一个版本时找不到元数据。 若要禁用
此检查,可设置为“false”
获取 [
版本 [
请使用
DESCRIBE HISTORY
查看它首次启用的时间。
否则,若要开始记录更改数据,请使用 `ALTER TABLE table_name SET TBLPROPERTIES
(
无法在表列 (
Delta 表中的流应从版本
但是 _delta_log 目录中最早的可用版本为
中的文件可能因日志清理而被删除。 为了避免丢失
数据,建议使用新的检查点位置重新启动流
并增加 delta.logRetentionDuration 设置(如果已将其显式设置为 30 天
如果想要忽略丢失的数据,并从其离开的位置继续
流式传输,可以将 .option("
readStream 语句的一部分。
找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。
有关更多详细信息,请参阅
写入表中的数据中缺失具有 NOT NULL 约束的
架构
\<columnName\>
找不到检查点版本的所有部件文件:
CONVERT TO DELTA 仅支持 Parquet 表。 请将目标重写为 Parquet。 如果它是 Parquet 目录,则为
\<path\>
SET 列
检测到不兼容的格式。
你正在尝试使用 Delta 执行
\<path\>
,但没有
事务日志。 检查上游作业,确保它正在使用
格式(“delta”)写入,并且你正在尝试 %1$s 表基路径。
若要禁用此检查,请设置 spark.databricks.delta.formatCheck.enabled=false
若要详细了解 Delta,请参阅
不支持指定模式“
为 CDC 读取提供的多个
传递给
无法执行合并,因为多个源行匹配并尝试
以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,
当多个源行在同一目标行上匹配时,结果可能是不明确的,
因为不清楚应该使用哪一个源行来更新或删除匹配的
目标行。 你可以预处理源表来消除
出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的
以下列名仅限 Delta Bucket 表内部使用:
需要重命名嵌套字段以避免数据丢失。 字段:
原始架构:
字段的类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 = true。
分析的类型:
中的行违反新的 NOT NULL 约束
CHECK 约束“”() 应为布尔表达式。
当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。
当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。
当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件
无法分析标签
文件标签为:
写入 Delta 的数据需要包含至少一个非分区列。
谓词引用非分区列“
指定了非分区列,但只能指定分区列:。
Delta 目录需要一个单部分命名空间,但提供了多部分命名空间。
未在结构
列
无法将不可为 null 的嵌套字段添加到可为空的父列。 请相应地设置父列的可为 Null 性。
未在
无法找到 列的新属性 ID。 这应该提前检查。
在以下位置找不到可重新创建的提交:
没有为 CDC 读取提供 startingVersion 或 startingTimestamp。
Delta 不接受架构中的 NullType 进行流式处理写入。
请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。
请为 提供路径或表标识符。
不允许操作:Delta 表不支持
\<operation\>
不允许操作:Delta 表
\<operation\>
不支持在引用 Delta 表(包含生成列)的临时视图上执行
如果未设置 OVERWRITE =“true”,则无法指定复制选项 overwriteSchema。
未能将分区列
\<columnName\>
的值
\<value\>
强制转换为
\<dataType\>
在架构 [] 中找不到分区列
转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。
如果未设置 OVERWRITE =“true”,则无法写入已存在的路径。
可成功提交 Delta 表版本
协议属性
无法仅升级读取器协议版本以使用表功能。 编写器协议版本必须至少为 才能继续操作。 有关表协议版本的详细信息,请参阅 。
尝试读取没有任何列的 Delta 表。
使用
mergeSchema = true
选项写入一些新数据,以便能够读取表。
请重新检查“
在不使用扩展元数据的情况下创建的 RemoveFile 不适合 CDC:
不能将 replaceWhere 与“按筛选器覆盖”结合使用
写出的数据与 replaceWhere“
“replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。
当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:
检测到架构更改:
流式处理源架构:
数据文件架构:
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
在版本
流式处理源架构:
数据文件架构:
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。 如果该问题在更改为
新的检查点目录后仍然出现,你可能需要更改现有的
“startingVersion”或“startingTimestamp”选项,以使用新的检查点目录
从高于
在版本
流式处理源架构:
数据文件架构:
请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有
进展,则原因是你做出了不兼容的架构更改,需要
使用新的检查点目录从头开始启动查询。
自创建 DataFrame 或 DeltaTable 对象以来,
Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。
表架构与目标属性不一致:
未提供表架构。 使用 REPLACE 表且未提供 AS SELECT 查询时,请提供表的架构(列定义)。
表架构未设置。 将数据写入其中或使用 CREATE TABLE 设置架构。
新 Delta 位置的架构不同于当前表架构。
原始架构:
目标架构:
如果这是预期更改,可以通过运行以下内容来关闭此检查:
%%sql set = true
为 SHOW PARTITIONS 指定了非分区列
在未分区的表上不允许 SHOW PARTITIONS:
在版本的流源中检测到已删除的数据(例如 )。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在以下路径中找到:
在版本 的源表中检测到数据更新(例如 )。 目前不支持。 如果要忽略更新,请将选项“ignoreChanges”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询。 源表可以在以下路径中找到:
未设置活动的 SparkSession。
未在 Spark 任务线程上运行
请提供 '' 或 ''
重新构造版本
Delta 表的
在 Parquet 元数据中找不到列的
检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将 '' 设置为“true”来强制启用流式读取,但需自负风险。
无法对表启用变更数据捕获。 表已包含
这些列将在内部用作表的更改数据馈送的元数据。 若要为
表上的更改数据馈送将重命名/删除这些列。
表
DeltaTable.forPath 目前仅支持以 开头的 hadoop 配置键,但获取的键为
DeltaTable 不能在执行程序中使用
现有表的位置为 它与指定的位置不匹配。
Delta 表
Delta 表
表在
目标表最终架构为空。
提供的时间戳 (
最新版本可用时间。 请使用早于或等于
提供的时间戳 () 无法转换为有效时间戳。
需要是有效的开始值。
:由于手动删除或日志保留策略 (=) 和检查点保留策略 (=) 导致事务日志被截断,无法在版本中重构状态
不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。
事务日志未通过完整性检查。 未通过验证的版本为:
已找到。 生成的列不能使用用户定义的函数
意外的操作表达式
类型为
需要别名,但收到了
在 dataChange = false 事务中找到的更改文件。 文件:
需要分区列 ,但通过分析文件名找到分区列:
应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:
需要分区列 ,但通过分析文件名找到了分区列:
用于调用 CONVERT TO DELTA 的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。
目录分区架构:
提供的分区架构:
需要提供项目,但收到了
指定了未知配置:
未知特权:
未知 ReadLimit:
无法识别的列更改 。 运行的 Delta Lake 版本可能已过时。
无法识别类型为 的文件操作。
无法识别的不变量。 请升级 Spark 版本。
无法识别的日志文件
尝试取消设置表
ALTER TABLE REPLACE COLUMNS 操作不受支持。 原因:
无法将架构从
你尝试将现有表 (
不受支持。 尝试使用其他 CLONE 目标位置或删除当前目标位置中的表。
不支持将列映射模式从“
当前表协议版本不支持使用
列映射模式。
列映射所需的 Delta 协议版本:
表的当前 Delta 协议版本:
检测到架构更改:
在更改列映射模式期间不允许更改架构。
不支持使用列映射模式写入数据。
不支持在类型为
发现有列使用不受支持的数据类型:
此 Delta 版本不支持深度克隆。
Delta 表不支持 DROP COLUMN。
只能从 StructType 中删除嵌套列。 已找到
不允许删除分区列 (
不支持的表达式类型。 支持的类型为 []。
无法在生成的列中使用
无法读取此表,因为它需要此版本的 Databricks 不支持的读取器表功能:。
无法写入此表,因为它需要此版本的 Databricks 不支持的编写器表功能:。
此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:。
预期表功能的状态为“已启用”,但状态为“”。
仅 StructType 支持更新嵌套字段,但你在尝试更新类型为
包含删除向量的表版本不支持“FSCK REPAIR TABLE”命令。
删除矢量的表版本不支持“GENERATE symlink_format_manifest”命令。
若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE table APPLY (PURGE)”。 然后重新运行“GENERATE”命令。
请确保没有并发事务再次在 REORG 和 GENERATE 之间添加删除向量。
如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE table SET TBLPROPERTIES (createDeletionVectors = false)”禁用此表上的删除向量。
不支持 StructType 以外的嵌套字段上的不变量。
条件中不支持 In 子查询。
listKeywithPrefix 不可用
利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。
带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。
条件中不支持多列 In 谓词。
目前不支持在嵌套列
克隆目标表不为空。 在运行 CLONE 之前请对表运行 TRUNCATE 或 DELETE FROM。
数据源
不支持在分区列
Delta 表不支持列重命名。
Delta 不支持在读取时指定架构。
Delta Bucket 表不支持 SORTED BY
目前在插入期间不支持在分区规格中指定静态分区
不支持的策略名称:
(条件 = )中不支持子查询。
分区谓词中不支持子查询。
无法以多种格式指定“按时间顺序查看”。
无法按时间顺序查看视图、子查询、流或更改数据馈送查询。
不支持截断示例表
清空 Delta 表时,请提供基本路径 ()。 目前不支持清空特定分区。
表实现不支持写入操作:
不支持写入示例表
无法将
版本 () 不是连续的。
有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS
具有值
已违反对表属性
有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
数据架构中不存在 Z 排序列。
上的 Z 排序将
无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的
有关数据跳过和 Z 排序的详细信息。 可以通过
设置“%%sql set = false”
禁用此检查
是一个分区列。 只能对数据列执行 Z 排序
指定了架构时不支持架构演变模式
cloudFiles.schemaHints
提供架构。
找到了(默认)目录列表模式的通知设置
身份验证选项:
如果要使用文件通知模式,请显式设置:
.option("cloudFiles.<useNotificationsKey>", "true")
如果要跳过选项验证步骤并忽略这些
身份验证选项,也可以设置:
.option("cloudFiles.<ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
增量列表模式 (cloudFiles.)
和文件通知 (cloudFiles.)
已同时启用。
请确保仅选择一个。
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix
CF_BUCKET_MISMATCH
文件事件 \<fileEvent\>
中的 与源 \<source\>
所预期的不同。
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
架构日志为空时无法演变架构。 架构日志位置:
CF_CANNOT_RESOLVE_CONTAINER_NAME
无法从路径 解析容器名称,解析的 URI 为
CF_CANNOT_RUN_DIRECTORY_LISTING
当有异步回填线程在运行时,无法运行目录列表
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。
CF_DUPLICATE_COLUMN_IN_DATA
尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用 .option("cloudFiles.", "{comma-separated-list}") 显式提供分区列
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
输入路径 \<path\>
为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。
CF_EVENT_GRID_AUTH_ERROR
无法创建事件网格订阅。 请确保服务
主体具有 事件网格订阅。 有关详细信息,请参阅:
CF_EVENT_GRID_CREATION_FAILED
无法创建事件网格订阅。 请确保 Microsoft.EventGrid
在订阅中注册为资源提供程序。 有关详细信息,请参阅:
CF_EVENT_GRID_NOT_FOUND_ERROR
无法创建事件网格订阅。 请确保存储
帐户 () 位于资源组 () 的下方,并且
存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
不支持自动加载程序事件通知模式。
CF_FAILED_TO_CHECK_STREAM_NEW
无法检查流是否为新流
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
无法创建订阅 \<subscriptionName\>
。 已存在同名订阅,并与另一个主题 \<otherTopicName\>
相关联。 所需主题为 \<proposedTopicName\>
。 要么删除现有订阅,要么创建采用新资源后缀的订阅。
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
无法创建主题 \<topicName\>
。 已存在同名的主题。 请删除现有主题或使用其他资源后缀重试
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
未能删除主题 \<topicName\>
的存储桶 \<bucketName\>
上 ID 为 \<notificationId\>
的通知。 请重试或通过 GCP Console 手动删除通知。
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
无法从字符串反序列化持久化架构:“”
CF_FAILED_TO_EVOLVE_SCHEMA
无法在没有架构日志的情况下演变架构。
CF_FAILED_TO_FIND_PROVIDER
无法为 找到提供程序
CF_FAILED_TO_INFER_SCHEMA
无法从输入路径 中的现有文件推断 格式的架构。 请确保正确配置选项或显式指定架构。
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
无法写入位于 的架构日志。
CF_FILE_FORMAT_REQUIRED
无法找到所需选项:cloudFiles.format。
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
发现主题 \<topicName\>
有多个( 个)订阅使用自动加载程序前缀:
每个主题只能有一个订阅。 请手动确保主题没有多个订阅。
CF_GCP_AUTHENTICATION
请提供以下所有凭据:、、 和 ,
或者一个都不提供,使用默认的
GCP 凭据提供程序链对 GCP 资源进行身份验证。
CF_GCP_LABELS_COUNT_EXCEEDED
收到太多 GCP 资源的标签( 个)。 每项资源的最大标签计数为 。
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
收到太多 GCP 资源的资源标记( 个)。 每项资源的最大资源标记计数为 ,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
架构日志中的日志文件不完整
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
自动加载程序检查点中的元数据文件不完整
CF_INCORRECT_SQL_PARAMS
cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files(“path”、“json”、map(“option1”、“value1”))。 收到:
CF_INVALID_ARN
无效 ARN:
CF_INVALID_CHECKPOINT
此检查点不是有效的 CloudFiles 源
CF_INVALID_CLEAN_SOURCE_MODE
清理源选项 的模式无效。
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 资源的资源标记密钥 \<key\>
无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 资源的资源标记值 \<value\>
无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
必须是以下项之一
"<addNewColumns>"
"<failOnNewColumns>"
"<rescue>"
"<noEvolution>"
CF_INVALID_SCHEMA_HINTS_OPTION
架构提示只能指定特定列一次。
在这种情况下,请在架构提示 中
多次重新定义列
CF_INVALID_SCHEMA_HINT_COLUMN
架构提示无法用于覆盖映射和数组的嵌套类型。
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
应在此源上使用 ReadLimit 调用 latestOffset。
CF_LOG_FILE_MALFORMED
日志文件格式不正确:无法从 中读取正确的日志版本。
CF_MAX_MUST_BE_POSITIVE
最大值必须为正数
CF_METADATA_FILE_CONCURRENTLY_USED
多个流式处理查询在同时使用
CF_MISSING_METADATA_FILE_ERROR
流式处理源检查点目录中的元数据文件丢失。 此元数据
文件包含流的重要默认选项,因此流无法立即
重启。 请联系 Databricks 支持人员获取帮助。
CF_MISSING_PARTITION_COLUMN_ERROR
提供的架构 中不存在分区列
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
在存储桶 \<topicName\>
上发现主题 \<bucketName\>
的现有通知:
notification,id
若要避免意外事件污染订阅服务器,请删除上述通知并重试。
CF_NEW_PARTITION_ERROR
从文件中推断出新的分区列:[]。 请提供架构中的所有分区列,或者提供想要通过使用 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") 提取其中的值的分区列列表
CF_PARTITON_INFERENCE_ERROR
尝试推断当前文件批次的分区架构时出错。 请使用:option("cloudFiles.", "{comma-separated-list}") 显式提供分区列
CF_PATH_DOES_NOT_EXIST_FOR_SCHEMA_INFERENCE
当输入路径 \<path\>
不存在时无法推理架构。 请确保该输入路径存在,然后重试。
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing
设置为 true 来启用异步回填/目录列表
CF_PREFIX_MISMATCH
找到不匹配的事件:密钥 没有前缀
CF_PROTOCOL_MISMATCH
如果无需对代码进行任何其他更改,请设置 SQL
配置:“ = ”
以恢复流。 请参阅:
以获取更多详细信息。
CF_REGION_NOT_FOUND_ERROR
无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。
CF_RESOURCE_SUFFIX_EMPTY
无法创建通知服务:资源后缀不能为空。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 ()。
CF_RESOURCE_SUFFIX_LIMIT
无法创建通知服务:资源后缀不能超过 个字符。
CF_RESOURCE_SUFFIX_LIMIT_GCP
无法创建通知服务:资源后缀的字符数介于 和 之间。
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
找到受限的 GCP 资源标记密钥 (\<key\>
)。 自动加载程序限制以下 GCP 资源标记密钥:[]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
无法为前缀为 \<prefix\>
的主题 \<topic\>
创建通知。 已经有一个具有相同名称且前缀为 \<oldPrefix\>
的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。
CF_SOURCE_DIRECTORY_PATH_REQUIRED
请提供带有选项 path
的源目录路径
CF_SOURCE_UNSUPPORTED
云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“”,解析 URL:“”
CF_THREAD_IS_DEAD
线程终止。
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
无法从源检查点位置派生流检查点位置:
CF_UNABLE_TO_DETECT_FILE_FORMAT
无法在 采样文件中检测源文件格式,找到了 。 请指定格式。
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
无法提取存储桶信息。 路径:“”,解析 URL:“”。
CF_UNABLE_TO_EXTRACT_KEY_INFO
无法提取密钥信息。 路径:“”,解析 URL:“”。
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
无法提取存储帐户信息。路径:“”,解析 URL:“”
CF_UNABLE_TO_LIST_EFFICIENTLY
已收到路径 的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。
CF_UNKNOWN_OPTION_KEYS_ERROR
找到未知选项密钥:
请确保所有提供的选项密钥都正确。 如果要跳过
选项验证步骤并忽略这些未知选项,你可以设置:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
未知 ReadLimit:
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
格式 不支持架构推理。 请指定架构。
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion:支持的最大日志版本为 v,但遇到的是 v。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
格式 不支持架构演变模式 。
CF_USE_DELTA_FORMAT
此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (),或读取 Delta 表作为流源 ()。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。
GEOJSON_PARSE_ERROR
分析 GeoJSON 时出错: 位于 位置
H3_INVALID_CELL_ID
不是有效的 H3 单元格 ID
H3_INVALID_GRID_DISTANCE_VALUE
H3 网格距离 必须为非负
H3_INVALID_RESOLUTION_VALUE
H3 分辨率必须介于 和 (含)之间
H3_NOT_ENABLED
已禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层
H3_PENTAGON_ENCOUNTERED_ERROR
计算网格距离 的 的六边形环时出现五边形
H3_UNDEFINED_GRID_DISTANCE
和 之间的 H3 网格距离未定义
WKB_PARSE_ERROR
分析 WKB 时出错: 位于 位置
WKT_PARSE_ERROR
分析 WKT 时出错: 位于 位置