错误条件
这是 Spark SQL 可能返回的错误状态和条件的列表。
错误状态 / SQLSTATE | 错误条件和子条件 | 消息 |
---|---|---|
07001 |
# ALL |
使用命名参数化查询要求所有参数都必须命名。缺少命名的参数: |
07501 |
# INVALID |
EXECUTE IMMEDIATE 的 INTO 子句仅对查询有效,但给定的语句不是查询: |
07501 |
# NESTED |
不允许嵌套 EXECUTE IMMEDIATE 命令。请确保提供的 SQL 查询 ( |
07501 |
# SQL |
EXECUTE IMMEDIATE 命令中不允许使用 SQL 脚本。请确保提供的 SQL 查询 ( |
0A000 |
# CANNOT |
数据集转换和操作只能由驱动程序调用,不能在其他数据集转换内部调用;例如,dataset1.map(x => dataset2.values.count() * x) 是无效的,因为 values 转换和 count 操作不能在 dataset1.map 转换内部执行。有关更多信息,请参阅 SPARK-28702。 |
0A000 |
# CANNOT |
无法更新 |
# ARRAY |
通过更新 |
|
# INTERVAL |
通过更新其字段来更新间隔。 |
|
# MAP |
通过更新 |
|
# STRUCT |
通过更新其字段来更新结构体。 |
|
# USER |
通过更新其字段来更新 UserDefinedType[ |
|
0A000 |
# CLASS |
|
0A000 |
# COLUMN |
字段 |
0A000 |
# CONCURRENT |
此查询的另一个实例刚刚由并发会话启动。 |
0A000 |
# CORRUPTED |
由于目录中函数信息损坏,无法将目录函数 ' |
0A000 |
# CREATE |
不允许创建永久视图 |
0A000 |
# DESCRIBE |
DESCRIBE TABLE ... AS JSON 仅在指定 [EXTENDED|FORMATTED] 时受支持。例如:DESCRIBE EXTENDED |
0A000 |
# DISTINCT |
不支持 DISTINCT 窗口函数: |
0A000 |
# EMPTY |
|
0A000 |
# INVALID |
组聚合 Pandas UDF |
0A000 |
# INVALID |
不能将 |
0A000 |
# MULTI |
不允许实现多个 UDF 接口,UDF 类 |
0A000 |
# NAMED |
无法调用函数 |
0A000 |
# NEGATIVE |
不允许负刻度:' |
0A000 |
# NOT |
ALTER TABLE ALTER/CHANGE COLUMN 不支持更改 |
0A000 |
# NOT |
ALTER TABLE ALTER/CHANGE COLUMN 不支持在同一个命令中多次更改 |
0A000 |
# NOT |
|
0A000 |
# NOT |
不支持 |
0A000 |
# NOT |
JDBC 目录中不支持的命令 |
# COMMAND
|
|
|
# COMMAND |
|
|
0A000 |
# PIPE |
非分组表达式 |
0A000 |
# PIPE |
使用管道运算符 |> |
0A000 |
# SCALAR |
相关标量子查询 ' |
0A000 |
# STAR |
当使用 GROUP BY 序号位置时,SELECT 列表中不允许使用星号 (*)。 |
0A000 |
# TABLE |
无法 |
0A000 |
# UNSUPPORTED |
不支持添加文件。 |
# DIRECTORY
|
文件 |
|
# LOCAL |
在非本地主模式下不支持本地目录 |
|
0A000 |
# UNSUPPORTED |
不支持的 Arrow 类型 |
0A000 |
# UNSUPPORTED |
无法调用类 " |
# FIELD |
该行应具有一个模式才能获取字段 |
|
# WITHOUT |
||
0A000 |
# UNSUPPORTED |
char/varchar 类型不能用于表模式。如果您希望 Spark 像 Spark 3.0 及更早版本一样将它们视为字符串类型,请将 "spark.sql.legacy.charVarcharAsString" 设置为 "true"。 |
0A000 |
# UNSUPPORTED |
不支持排序规则 |
# FOR |
函数 |
|
0A000 |
# UNSUPPORTED |
Spark Connect 不支持此功能 |
# DATASET |
访问 Dataset Query Execution。这是服务器端开发人员 API。 |
|
# RDD
|
弹性分布式数据集 (RDD)。 |
|
# SESSION |
调用 SparkSession 'baseRelationToDataFrame'。这是服务器端开发人员 API |
|
# SESSION |
访问 SparkSession 实验性(方法)。这是服务器端开发人员 API |
|
# SESSION |
访问 SparkSession 监听器管理器。这是服务器端开发人员 API |
|
# SESSION |
访问 SparkSession 会话状态。这是服务器端开发人员 API。 |
|
# SESSION |
访问 SparkSession 共享状态。这是服务器端开发人员 API。 |
|
# SESSION |
访问 SparkContext。 |
|
0A000 |
# UNSUPPORTED |
文件直查不支持的数据源类型: |
0A000 |
# UNSUPPORTED |
不支持的数据类型 |
0A000 |
# UNSUPPORTED |
数据源 " |
0A000 |
# UNSUPPORTED |
|
0A000 |
# UNSUPPORTED |
无法为 |
0A000 |
# UNSUPPORTED |
不支持 DEFAULT 列值。 |
# WITHOUT |
||
# WITH |
通过将 "spark.sql.defaultColumn.enabled" 设置为 "true" 来启用它。 |
|
0A000 |
# UNSUPPORTED |
不支持反序列化器 |
# DATA |
需要一个 |
|
# FIELD |
尝试将 |
|
0A000 |
# UNSUPPORTED |
不支持该功能 |
# AES |
|
|
# AES |
|
|
# AES |
|
|
# ALTER |
对于使用数据源 API 创建的表 |
|
# ANALYZE |
ANALYZE TABLE FOR COLUMNS 命令可以操作已缓存的临时视图。考虑缓存视图 |
|
# ANALYZE |
ANALYZE TABLE FOR COLUMNS 命令不支持表 |
|
# ANALYZE |
ANALYZE TABLE 命令不支持视图。 |
|
# CATALOG |
目录 |
|
# CLAUSE |
使用 |> 的 SQL 管道运算符语法不支持 |
|
# COLLATIONS |
映射键的排序字符串 |
|
# COMBINATION |
ORDER BY/SORT BY/DISTRIBUTE BY/CLUSTER BY 的组合。 |
|
# COMMENT |
为命名空间 |
|
# CONTINUE |
不支持 CONTINUE 异常处理程序。请使用 EXIT 处理程序。 |
|
# DESC |
DESC TABLE COLUMN AS JSON 不支持单个列。 |
|
# DESC |
DESC TABLE COLUMN 用于特定分区。 |
|
# DROP |
删除默认数据库 |
|
# DROP |
删除命名空间 |
|
# HIVE |
|
|
# HIVE |
带有 ANSI 间隔的 Hive 表 |
|
# INSERT |
INSERT INTO |
|
# LAMBDA |
在高阶函数中,Lambda 函数与 Python UDF |
|
# LATERAL |
在聚合函数 |
|
# LATERAL |
在同时包含窗口表达式和 HAVING 子句的聚合查询中引用侧向列别名 |
|
# LATERAL |
在生成器表达式 |
|
# LATERAL |
通过 GROUP BY alias/ALL 引用侧向列别名尚不支持。 |
|
# LATERAL |
在窗口表达式 |
|
# LATERAL |
带有 LATERAL 关联的 JOIN USING。 |
|
# LITERAL |
|
|
# MULTIPLE |
多个桶转换。 |
|
# MULTI |
承载表 |
|
# OBJECT |
指定对象的默认排序规则。 |
|
# ORC |
无法将 Orc 的 |
|
# OVERWRITE |
带有子查询条件的 INSERT OVERWRITE。 |
|
# PANDAS |
PIVOT 子句中的 Pandas 用户定义聚合函数。 |
|
# PARAMETER |
在 |
|
# PARTITION |
不能使用生成 VARIANT 的表达式来分区 DataFrame,但表达式 |
|
# PARTITION |
无效的分区: |
|
# PIPE |
带有聚合(使用 |> AGGREGATE)的 SQL 管道运算符语法不支持 |
|
# PIVOT |
GROUP BY 子句后的 PIVOT 子句。考虑将 GROUP BY 推送到子查询中。 |
|
# PIVOT |
按列数据类型 |
|
# PURGE |
分区清除。 |
|
# PURGE |
清除表。 |
|
# PYTHON |
在 |
|
# QUERY |
当引用的列只包含内部损坏记录列(默认为 |
|
# REMOVE |
从命名空间 |
|
# REPLACE |
替换函数不支持嵌套列 |
|
# SET |
|
|
# SET |
调用集合操作(INTERSECT, EXCEPT 等)的 DataFrame 中不能有 MAP 类型列,但列 |
|
# SET |
调用集合操作(INTERSECT, EXCEPT 等)的 DataFrame 中不能有 VARIANT 类型列,但列 |
|
# SET |
同时设置 PROPERTIES 和 DBPROPERTIES。 |
|
# SET |
|
|
# SET |
|
|
# SQL |
SQL 脚本正在开发中,并非所有功能都受支持。SQL 脚本使用户能够编写过程性 SQL,包括控制流和错误处理。要启用现有功能,请将 |
|
# SQL |
SQL 脚本中不支持 DROP TEMPORARY VARIABLE。要绕过此限制,请使用 |
|
# SQL |
SQL 脚本不支持位置参数。 |
|
# STATE |
不支持使用 |
|
# STATE |
不支持使用 |
|
# STATE |
不支持带有 |
|
# TABLE |
表 |
|
# TEMPORARY |
不能使用 WITH SCHEMA 子句创建临时视图。当底层模式更改时重新创建临时视图,或使用持久化视图。 |
|
# TIME |
关系上的时间旅行: |
|
# TOO |
具有 |
|
# TRANSFORM |
带有 DISTINCT/ALL 子句的 TRANSFORM。 |
|
# TRANSFORM |
只有在 Hive 模式下才支持带有 SERDE 的 TRANSFORM。 |
|
# TRIM |
排序规则中的 TRIM 指定符。 |
|
# UPDATE |
更新 MySQL 和 MS SQL Server 的列可空性。 |
|
# WRITE |
为二进制文件数据源写入。 |
|
0A000 |
# UNSUPPORTED |
不支持的连接类型 ' |
0A000 |
# UNSUPPORTED |
不支持的分区转换: |
0A000 |
# UNSUPPORTED |
不支持保存模式 |
# EXISTENT |
已存在的路径。 |
|
# NON |
不存在的路径。 |
|
0A000 |
# UNSUPPORTED |
不支持 SHOW CREATE TABLE 命令。 |
# ON |
表 |
|
# ON |
此命令不支持临时视图 |
|
# ON |
无法针对事务性 Hive 表 |
|
# WITH |
无法针对由 Hive 创建并使用以下不支持功能 |
|
# WITH |
无法针对由 Hive 创建并使用以下不支持的 serde 配置 |
|
0A000 |
# UNSUPPORTED |
单遍分析器无法处理此查询或命令,因为它尚不支持 |
0A000 |
# UNSUPPORTED |
在 |
0A000 |
# UNSUPPORTED |
|
0A000 |
# UNSUPPORTED |
不支持的子查询表达式 |
# ACCESSING |
在此位置不允许访问外部查询列: |
|
# AGGREGATE |
在相关谓词中发现一个同时具有外部和本地引用的聚合函数,这不支持: |
|
# CORRELATED |
谓词中不允许使用相关列: |
|
# CORRELATED |
在子查询表达式主体中未找到外部查询的相关外部名称引用: |
|
# CORRELATED |
在 WHERE/HAVING 子句之外不支持引用外部查询的表达式: |
|
# HIGHER |
高阶函数中不支持子查询表达式。请从高阶函数中删除所有子查询表达式,然后重试查询。 |
|
# LATERAL |
侧向连接条件不能是非确定性的: |
|
# MUST |
相关标量子查询必须聚合以返回最多一行。 |
|
# NON |
标量相关子查询中的 GROUP BY 子句不能包含非相关列: |
|
# NON |
当与产生多行的外部关系连接时,不支持非确定性侧向子查询: |
|
# SCALAR |
VALUES 子句中的标量子查询。 |
|
# UNSUPPORTED |
连接谓词中的相关子查询不能同时引用两个连接输入: |
|
# UNSUPPORTED |
相关列引用 ' |
|
# UNSUPPORTED |
相关标量子查询只能用于筛选、聚合、投影和 UPDATE/MERGE/DELETE 命令: |
|
# UNSUPPORTED |
IN/EXISTS 谓词子查询只能用于筛选、连接、聚合、窗口函数、投影和 UPDATE/MERGE/DELETE 命令: |
|
# UNSUPPORTED |
函数中使用了不支持的表参数: |
|
0A000 |
# UNSUPPORTED |
不支持 |
0AKD0 |
# CANNOT |
不允许跨模式重命名 |
21000 |
# BOOLEAN |
布尔语句 |
21000 |
# ROW |
用作行的子查询返回了多于一行。 |
21000 |
# SCALAR |
用作表达式的子查询返回了多于一行。 |
21S01 |
# CREATE |
无法创建视图 |
# NOT |
数据列不足:视图列: |
|
# TOO |
数据列过多:视图列: |
|
21S01 |
# INSERT |
无法写入 |
# NOT |
数据列不足:表列: |
|
# TOO |
数据列过多:表列: |
|
21S01 |
# INSERT |
无法写入 ' |
22000 |
# HLL |
草图的 |
22000 |
# MALFORMED |
执行 |
22003 |
# ARITHMETIC |
|
22003 |
# BINARY |
|
22003 |
# CAST |
由于溢出,类型为 |
22003 |
# CAST |
由于溢出,无法将 |
22003 |
# COLUMN |
列序号超出界限。表中列数为 |
22003 |
# DECIMAL |
小数精度 |
22003 |
# INCORRECT |
每秒 |
22003 |
# INVALID |
索引 |
22003 |
# INVALID |
索引 |
22003 |
# INVALID |
0 索引位图位置 |
22003 |
# INVALID |
边界 |
# END
|
预期值为 '0'、' |
|
# START
|
预期值为 '0'、' |
|
22003 |
# INVALID |
索引 0 无效。索引应小于 0 或大于 0(第一个元素的索引为 1)。 |
22003 |
# INVALID |
数字字面值 |
22003 |
# NEGATIVE |
在 |
22003 |
# NUMERIC |
值 |
22003 |
# NUMERIC |
|
# WITHOUT |
从 |
|
# WITH |
|
|
22003 |
# SUM |
LIMIT 子句和 OFFSET 子句的总和不能大于最大 32 位整数值(2,147,483,647),但发现 limit = |
22004 |
# COMPARATOR |
比较器对 |
22004 |
# NULL |
EXECUTE IMMEDIATE 需要一个非空变量作为查询字符串,但提供的变量 |
22004 |
# TUPLE |
由于 Scala 对元组的支持有限,不支持空元组。 |
22006 |
# CANNOT |
无法解析 |
22006 |
# INVALID |
解析 ' |
# ARITHMETIC |
解析 ' |
|
# DAY |
解析间隔日期时间字符串时出错: |
|
# INPUT |
间隔字符串不能为空。 |
|
# INPUT |
间隔字符串不能为 null。 |
|
# INTERVAL |
解析间隔 |
|
# INVALID |
|
|
# INVALID |
间隔只支持纳秒精度, |
|
# INVALID |
无效的间隔前缀 |
|
# INVALID |
无效的单位 |
|
# INVALID |
无效值 |
|
# MISSING |
在 |
|
# MISSING |
在 |
|
# SECOND |
间隔字符串与 ss.nnnnnnnnn 的秒-纳秒格式不匹配。 |
|
# TIMEZONE |
间隔值必须在 [-18, +18] 小时(精确到秒)的范围内。 |
|
# UNKNOWN |
解析 |
|
# UNMATCHED |
将 |
|
# UNMATCHED |
将 |
|
# UNRECOGNIZED |
无法识别的数字 |
|
# UNSUPPORTED |
不支持 (interval ' |
|
22006 |
# INVALID |
无法将间隔添加到日期,因为其微秒部分不为 0。要解决此问题,请将输入日期转换为时间戳,该时间戳支持添加微秒不为零的间隔。 |
22007 |
# CANNOT |
|
22007 |
# INVALID |
无法识别的日期时间模式: |
# ILLEGAL |
日期时间模式中发现非法模式字符: |
|
# LENGTH
|
日期时间模式中的字母过多: |
|
# SECONDS |
无法检测可变长度的秒小数模式。请确保模式包含 'S',且不包含非法字符。 |
|
22008 |
# DATETIME |
日期时间操作溢出: |
22009 |
# ILLEGAL |
星期几的非法输入: |
22009 |
# INVALID |
时区: |
2200E |
# NULL |
不能使用 null 作为映射键。 |
22012 |
# DIVIDE |
除以零。使用 |
22012 |
# INTERVAL |
除以零。使用 |
22015 |
# INTERVAL |
对间隔进行操作时发生整数溢出。 |
# WITHOUT |
尝试为间隔参数设计适当的值。 |
|
# WITH |
使用 |
|
22018 |
# CANNOT |
无法解析小数。请确保输入是一个有效的数字,带可选的小数点或逗号分隔符。 |
22018 |
# CANNOT |
解析描述符字节到 Protobuf FileDescriptorSet 时出错。 |
22018 |
# CAST |
类型为 |
22018 |
# CONVERSION |
值 |
22018 |
# FAILED |
解析结构体失败: |
2201E |
# STRUCT |
输入行不具有模式所需的预期值数量。需要 |
22022 |
# INVALID |
配置 " |
# TIME |
无法解析给定的时区。 |
|
22023 |
# DATETIME |
|
22023 |
# INVALID |
秒的有效范围是 [0, 60](包括),但提供的值是 |
22023 |
# INVALID |
在 |
22023 |
# INVALID |
|
# AES |
详细消息: |
|
# AES |
支持 16 字节 CBC IV 和 12 字节 GCM IV,但 |
|
# AES |
预期二进制值为 16、24 或 32 字节,但得到 |
|
# BINARY |
预期二进制格式为 'base64'、'hex'、'utf-8' 之一,但得到 |
|
# BIT |
预期整数值在 [0, |
|
# BOOLEAN
|
预期布尔字面值,但得到 |
|
# CHARSET
|
预期 |
|
# DATETIME |
预期不带引号的单位:YEAR, QUARTER, MONTH, WEEK, DAY, DAYOFYEAR, HOUR, MINUTE, SECOND, MILLISECOND, MICROSECOND,但得到字符串字面值 |
|
# DOUBLE
|
预期双精度字面值,但得到 |
|
# DTYPE
|
不支持的 dtype: |
|
# EXTENSION
|
无效扩展名: |
|
# INTEGER
|
预期整数文字,但得到 |
|
# LENGTH
|
预期 |
|
# LONG
|
预期长整数文字,但得到 |
|
# NULL
|
预期非 NULL 值。 |
|
# PATTERN
|
|
|
# REGEX |
预期组索引在 0 到 |
|
# START
|
预期 |
|
# STRING
|
预期字符串文字,但得到 |
|
# ZERO |
预期 %1$、%2$ 等,但得到 %0$。 |
|
22023 |
# INVALID |
无法对 source = " |
22023 |
# INVALID |
variant 值 |
22023 |
# INVALID |
无效的变体。 |
# MISSING |
缺少 |
|
# NULLABLE |
|
|
# WRONG |
Variant 列必须包含正好两个字段。 |
|
22023 |
# INVALID |
路径 |
22023 |
# INVALID |
模式 |
22023 |
# MALFORMED |
在记录解析中检测到格式错误的记录: |
# CANNOT |
禁止将 JSON 数组解析为结构体。 |
|
# CANNOT |
无法将字段 |
|
# WITHOUT |
||
22023 |
# MALFORMED |
Variant 二进制文件格式错误。请检查数据源是否有效。 |
22023 |
# ROW |
在索引 |
22023 |
# RULE |
未找到规则名称 " |
22023 |
# SECOND |
函数 |
22023 |
# TABLE |
评估表函数 |
22023 |
# TABLE |
评估表函数 |
22023 |
# UNKNOWN |
在变体值中发现 ID 为 |
22023 |
# VARIANT |
无法构造大于 16 MiB 的变体。变体值的最大允许大小为 16 MiB。 |
22023 |
# VARIANT |
因重复对象键 |
22023 |
# VARIANT |
无法在 |
22024 |
# NULL |
数据源读/写选项 |
22029 |
# INVALID |
在字符串中发现无效的 UTF8 字节序列: |
22032 |
# INVALID |
无法将 JSON 根字段转换为目标 Spark 类型。 |
22032 |
# INVALID |
输入模式 |
2203G |
# CANNOT |
无法将 JSON 令牌类型 |
2203G |
# FAILED |
无法将类 |
2203G |
# INVALID |
无法将 JSON 字符串 ' |
2203G |
# INVALID |
排序规则只能应用于字符串类型,但 JSON 数据类型为 |
22546 |
# CANNOT |
提供的 URL 无法解码: |
22546 |
# HLL |
对 |
22546 |
# HLL |
对 |
22546 |
# INVALID |
条件中预期为布尔语句,但找到了 |
22KD3 |
# AVRO |
无法将 Avro |
22KD3 |
# AVRO |
无法调用 SQL 函数 |
22KD3 |
# CANNOT |
无法加载 Kryo 序列化编解码器。Kryo 序列化不能在 Spark Connect 客户端中使用。请使用 Java 序列化、提供自定义编解码器或改用 Spark Classic。 |
22KD3 |
# PROTOBUF |
无法调用 SQL 函数 |
22P02 |
# INVALID |
URL 无效: |
22P03 |
# INVALID |
预期格式为 ByteString,但为 |
23505 |
# DUPLICATED |
发现重复的映射键 |
23505 |
# DUPLICATE |
发现重复键 |
23K01 |
# MERGE |
MERGE 语句的 ON 搜索条件将目标表中的单行与源表中的多行匹配。这可能导致目标行被更新或删除操作多次操作,这是不允许的。 |
2BP01 |
# SCHEMA |
无法删除模式 |
38000 |
# CLASS |
|
38000 |
# FAILED |
准备函数 |
38000 |
# FAILED |
无法加载例程 |
38000 |
# INVALID |
函数 |
38000 |
# NO |
UDF 类 |
38000 |
# PYTHON |
无法 |
38000 |
# PYTHON |
Python 流式数据源执行 |
38000 |
# TABLE |
分析 Python 用户定义表函数失败: |
39000 |
# FAILED |
用户定义函数 ( |
39000 |
# FLATMAPGROUPSWITHSTATE |
flatMapGroupsWithState 中用户提供的函数发生错误。原因: |
39000 |
# FOREACH |
foreach 批处理接收器中用户提供的函数发生错误。原因: |
39000 |
# FOREACH |
foreach 接收器中用户提供的函数发生错误。原因: |
3F000 |
# MISSING |
v1 会话目录中未指定数据库名称。与 v1 目录交互时,请确保提供有效的数据库名称。 |
40000 |
# CONCURRENT |
并发更新日志。检测到 |
42000 |
# AMBIGUOUS |
对字段 |
42000 |
# CANNOT |
无法删除保留属性: |
42000 |
# CLUSTERING |
' |
42000 |
# INVALID |
列或字段 |
42000 |
# INVALID |
无法从 |
42000 |
# INVALID |
字段名应该是非空字符串文字,但它是 |
42000 |
# INVALID |
字段名 |
42000 |
# INVALID |
无效的内联表。 |
# CANNOT |
无法在内联表定义中评估表达式 |
|
# FAILED |
无法评估 SQL 表达式 |
|
# INCOMPATIBLE |
在内联表的列 |
|
# NUM |
内联表预期有 |
|
42000 |
# INVALID |
预期格式为 'RESET' 或 'RESET key'。如果要在键中包含特殊字符,请使用引号,例如 RESET `key`。 |
42000 |
# INVALID |
指定的保存模式 |
42000 |
# INVALID |
预期格式为 'SET'、'SET key' 或 'SET key=value'。如果要在键中包含特殊字符,或在值中包含分号,请使用反引号,例如 SET `key`=`value`。 |
42000 |
# INVALID |
无效的 SQL 语法 |
# ANALYZE |
ANALYZE TABLE(S) ... COMPUTE STATISTICS ... |
|
# CREATE |
不允许对参数使用约束创建函数 (CREATE FUNCTION)。 |
|
# CREATE |
不允许对参数使用生成列创建函数 (CREATE FUNCTION)。 |
|
# CREATE |
无法同时指定 IF NOT EXISTS 和 REPLACE 创建例程。 |
|
# CREATE |
不允许指定数据库 ( |
|
# CREATE |
不允许使用 IF NOT EXISTS 创建临时函数 (CREATE TEMPORARY FUNCTION)。 |
|
# EMPTY |
分区键 |
|
# FUNCTION |
函数 |
|
# INVALID |
转换 |
|
# INVALID |
语法错误:对表值函数的调用无效,因为提供的 TABLE 参数 |
|
# INVALID |
表值函数不能指定数据库名: |
|
# INVALID |
窗口引用 |
|
# LATERAL |
LATERAL 只能与子查询和表值函数一起使用。 |
|
# MULTI |
不允许使用多部分名称 ( |
|
# OPTION |
选项或属性键 |
|
# REPETITIVE |
窗口 |
|
# SHOW |
SHOW FUNCTIONS 中的模式无效: |
|
# SHOW |
不支持 SHOW |
|
# TRANSFORM |
转换 |
|
# UNRESOLVED |
无法解析窗口引用 |
|
# UNSUPPORTED |
不支持的函数名 |
|
# UNSUPPORTED |
不支持的 SQL 语句: |
|
# VARIABLE |
SQL 变量的定义需要数据类型或 DEFAULT 子句。例如,使用 |
|
42000 |
# INVALID |
在 |
42000 |
# INVALID |
请求的写入分布无效。 |
# PARTITION |
分区号和建议分区大小不能同时指定。 |
|
# PARTITION |
未指定分布时不能指定分区数。 |
|
# PARTITION |
未指定分布时不能指定建议分区大小。 |
|
42000 |
# MULTIPLE |
|
42000 |
# NON |
PARTITION 子句不能包含非分区列: |
42000 |
# NOT |
非空字段中出现 NULL 值: |
42000 |
# NOT |
此处不允许分配 NULL。 |
# ARRAY |
数组 |
|
# MAP |
映射 |
|
42000 |
# NO |
UDAF ' |
42000 |
# NULLABLE |
列或字段 |
42000 |
# NULLABLE |
行 ID 属性不能为可空: |
42000 |
# PARTITION |
模式 |
42000 |
# UNSUPPORTED |
JDBC 目录中对表 |
42001 |
# INVALID |
找到一个无效的不可知编码器。预期为 AgnosticEncoder 实例,但得到 |
42001 |
# INVALID |
找到一个无效的表达式编码器。预期为 ExpressionEncoder 实例,但得到 |
42601 |
# COLUMN |
在 |
42601 |
# IDENTIFIER |
|
42601 |
# IDENTITY |
重复的 IDENTITY 列序列生成器选项: |
42601 |
# ILLEGAL |
提供给状态存储的值非法 |
# EMPTY |
无法将空列表值写入 StateName |
|
# NULL |
无法将 null 值写入 StateName |
|
42601 |
# INVALID |
属性名中存在语法错误: |
42601 |
# INVALID |
不能将 |
42601 |
# INVALID |
无法从 |
42601 |
# INVALID |
格式无效: |
# CONT |
数字格式中的千位分隔符(, 或 G)之间必须有数字。 |
|
# CUR |
数字格式中的货币符号必须出现在任何小数点之前。 |
|
# CUR |
数字格式中的货币符号必须出现在数字之前。 |
|
# EMPTY
|
数字格式字符串不能为空。 |
|
# ESC |
转义字符不允许在末尾。 |
|
# ESC |
转义字符不允许在 |
|
# MISMATCH |
输入 |
|
# THOUSANDS |
数字格式中的千位分隔符(, 或 G)不能出现在小数点之后。 |
|
# UNEXPECTED |
在格式字符串中发现意外的 |
|
# WRONG |
格式字符串至少需要一位数字。 |
|
# WRONG |
数字格式中最多允许一个 |
|
42601 |
# INVALID |
分区命令无效。 |
# PARTITION |
表 |
|
# PARTITION |
表 |
|
42601 |
# INVALID |
语句或子句: |
42601 |
# INVALID |
无法为 |
42601 |
# LOCAL |
LOCAL 必须与 |
42601 |
# MERGE |
MERGE 语句中必须至少有一个 WHEN 子句。 |
42601 |
# NOT |
不允许在 FROM 子句中 |
# LATERAL |
LATERAL 和 PIVOT。 |
|
# LATERAL |
LATERAL 和 UNPIVOT。 |
|
# UNPIVOT |
UNPIVOT 和 PIVOT。 |
|
42601 |
# NOT |
管道 WHERE 子句中不允许 |
# WINDOW |
WINDOW 子句。 |
|
42601 |
# NOT |
用于例程或子句 |
# NOT |
要被视为常量,表达式不能依赖于任何列、包含子查询或调用非确定性函数(如 rand())。 |
|
# NULL
|
表达式评估为 NULL。 |
|
# WRONG |
表达式的数据类型为 |
|
42601 |
# NOT |
预期为未解析编码器,但找到了 |
42601 |
# PARSE |
函数 |
42601 |
# PARSE |
在 |
42601 |
# REF |
PARTITION 子句中不允许引用 DEFAULT 列值。 |
42601 |
# SORT |
sortBy 必须与 bucketBy 一起使用。 |
42601 |
# SPECIFY |
不带显式列列表的 CREATE TABLE 无法指定分桶信息。请使用带有显式列列表的形式并指定分桶信息。或者,通过省略该子句来允许推断分桶信息。 |
42601 |
# SPECIFY |
不带显式列列表的 CREATE TABLE 无法指定 PARTITIONED BY。请使用带有显式列列表的形式并指定 PARTITIONED BY。或者,通过省略 PARTITION BY 子句来允许推断分区。 |
42601 |
# STDS |
必须指定 ' |
42601 |
# SYNTAX |
在此上下文中,子句或关键字 |
# BANG |
关键字 '!' 仅作为前缀运算符 'NOT' 的别名受支持。对于中缀子句(例如 |
|
42601 |
# TRAILING |
在 SELECT 子句中检测到尾随逗号。请在 FROM 子句之前删除尾随逗号。 |
42601 |
# UNCLOSED |
发现未闭合的括号注释。请在注释末尾添加 */。 |
42601 |
# USER |
用户定义函数无效 |
# CANNOT |
SQL 标量函数不能包含聚合/窗口/生成函数: |
|
# CANNOT |
无法用 SQL 函数替换非 SQL 函数 |
|
# NOT |
|
|
# NOT |
在例程 |
|
# NOT |
无法在函数参数上指定 NOT NULL: |
|
# RETURN |
RETURN 子句生成的列数(数量: |
|
# ROUTINE |
无法将用户定义例程 |
|
# SQL |
SQL 表函数 |
|
# SQL |
CREATE FUNCTION 语句中为 |
|
42601 |
# WINDOW |
窗口函数 |
42601 |
# WRITE |
|
42602 |
# CIRCULAR |
类中不能有循环引用,但发现了类 |
42602 |
# DUPLICATED |
CTE 定义不能有重复名称: |
42602 |
# INVALID |
分隔符值无效。 |
# DELIMITER |
分隔符不能超过一个字符: |
|
# EMPTY |
分隔符不能是空字符串。 |
|
# NULL |
分隔符不能为 null。 |
|
# SINGLE |
禁止使用单个反斜杠。它作为转义序列的开头具有特殊含义。要获取反斜杠字符,请传入一个带有两个反斜杠的字符串作为分隔符。 |
|
# UNSUPPORTED |
分隔符不支持的特殊字符: |
|
42602 |
# INVALID |
未加引号的标识符 |
42602 |
# INVALID |
|
42602 |
# INVALID |
|
42602 |
# INVALID |
|
42604 |
# AS |
无效的 as-of join。 |
# TOLERANCE |
输入参数 |
|
# TOLERANCE |
输入参数 |
|
# UNSUPPORTED |
不支持的 as-of join 方向 ' |
|
42604 |
# EMPTY |
无法解析数据类型 |
42604 |
# INVALID |
发现无效的转义字符串: |
42604 |
# INVALID |
|
42604 |
# INVALID |
类型化文字 |
42605 |
# WRONG |
|
# WITHOUT |
请参阅 ' |
|
# WITH |
如果您必须使用 |
|
42607 |
# NESTED |
不允许在另一个聚合函数的参数中使用聚合函数。请在子查询中使用内部聚合函数。 |
42608 |
# DEFAULT |
MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 关键字不能直接分配给目标列,因为它是一个表达式的一部分。例如:允许 |
42608 |
# NO |
无法确定 |
42611 |
# CANNOT |
需要定义水印才能重新分配事件时间列。在流式查询中未找到水印定义。 |
42611 |
# IDENTITY |
IDENTITY 列步长不能为 0。 |
42613 |
# INCOMPATIBLE |
JOIN 类型 |
42613 |
# INVALID |
joinWith 中的 JOIN 类型无效: |
42613 |
# INVALID |
不允许 |
42613 |
# INVALID |
参数化查询必须使用位置参数或命名参数,但不能同时使用两者。 |
42613 |
# INVALID |
如果同时存在用户指定的模式,则不能使用 |
42613 |
# NON |
当 MERGE 语句中存在多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略条件。 |
42613 |
# NON |
当 MERGE 语句中存在多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略条件。 |
42613 |
# NON |
当 MERGE 语句中存在多个 NOT MATCHED [BY TARGET] 子句时,只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略条件。 |
42613 |
# STDS |
选项 |
42614 |
# DUPLICATE |
发现重复子句: |
42614 |
# REPEATED |
|
42616 |
# INVALID |
无效的 Spark 配置 |
# INVALID |
|
|
# INVALID |
不允许 |
|
# INVALID |
不允许 |
|
# INVALID |
|
|
# INVALID |
|
|
# NETWORK |
启用加密时必须启用 |
|
42616 |
# STDS |
源选项 ' |
# IS |
不能为空。 |
|
# IS |
不能为负。 |
|
# WITH |
|
|
42617 |
# PARSE |
语法错误,意外的空语句。 |
42621 |
# UNSUPPORTED |
无法创建生成列 |
42623 |
# ADD |
无法执行 |
42623 |
# DEFAULT |
无法执行 |
42623 |
# GENERATED |
列不能同时具有默认值和生成表达式,但列 |
42623 |
# IDENTITY |
列不能同时具有默认值和 IDENTITY 列规范,但列 |
42623 |
# INVALID |
无法执行 |
# DATA |
它需要 |
|
# NOT |
它不是一个常量表达式,其等效值在查询规划时可知。 |
|
# SUBQUERY |
它包含子查询表达式。 |
|
# UNRESOLVED |
它无法解析为有效表达式。 |
|
42701 |
# DUPLICATE |
列或变量 |
42701 |
# EXEC |
此 EXECUTE IMMEDIATE 命令的 USING 子句包含多个具有相同别名 ( |
42702 |
# AMBIGUOUS |
列或字段 |
42702 |
# AMBIGUOUS |
列 |
42702 |
# AMBIGUOUS |
LATERAL 列别名 |
42702 |
# EXCEPT |
EXCEPT 列表中的列必须是唯一且不重叠的,但得到了 ( |
42703 |
# COLUMN |
表 |
42703 |
# COLUMN |
找不到列 |
42703 |
# UNRESOLVED |
名称为 |
# WITHOUT |
||
# WITH |
您是指以下其中一个吗?[ |
|
42703 |
# UNRESOLVED |
无法使用结构体类型列 |
# WITHOUT |
||
# WITH |
您是指以下其中一个吗?[ |
|
42703 |
# UNRESOLVED |
无法将列 |
# WITHOUT |
||
# WITH |
否则,您是指以下其中一列或多列吗?[ |
|
42703 |
# UNRESOLVED |
JOIN 的 |
42704 |
# AMBIGUOUS |
引用 |
42704 |
# CANNOT |
无法解析 DataFrame 列 |
42704 |
# CANNOT |
无法解析给定输入列 |
42704 |
# CODEC |
找不到编解码器 |
42704 |
# COLLATION |
值 |
42704 |
# COLLATION |
值 |
42704 |
# DATA |
未找到数据源 ' |
42704 |
# DEFAULT |
默认数据库 |
42704 |
# ENCODER |
未找到将类型 |
42704 |
# FIELD |
在 |
42704 |
# INDEX |
在表 |
42704 |
# SCHEMA |
找不到模式 |
42704 |
# UNRECOGNIZED |
未识别的 SQL 类型 - 名称: |
42704 |
# UNRECOGNIZED |
统计信息 |
42710 |
# ALTER |
ALTER TABLE |
42710 |
# CREATE |
CREATE TABLE 列 |
42710 |
# DATA |
数据源 ' |
42710 |
# DUPLICATED |
指标名称不是唯一的: |
42710 |
# FIELD |
无法 |
42710 |
# FOUND |
检测到多个名称为 ' |
42710 |
# INDEX |
无法在表 |
42710 |
# LOCATION |
无法将托管表命名为 |
42710 |
# MULTIPLE |
检测到多个名称为 |
42711 |
# COLUMN |
列 |
42711 |
# DUPLICATE |
在用户定义例程 |
42713 |
# ARTIFACT |
工件 |
42713 |
# DUPLICATED |
Arrow 结构体中不允许重复的字段名,得到 |
42713 |
# STATIC |
静态分区列 |
42723 |
# ROUTINE |
无法创建 |
42723 |
# VARIABLE |
无法创建变量 |
42734 |
# DUPLICATE |
在作用域中发现重复条件 |
42734 |
# DUPLICATE |
发现重复的处理程序。请删除其中一个。 |
# CONDITION
|
发现针对相同条件 |
|
# SQLSTATE
|
发现针对相同 SQLSTATE |
|
42734 |
# DUPLICATE |
在用户定义例程 |
4274K |
# DUPLICATE |
对例程 |
# BOTH |
位置参数和命名参数都引用了同一个参数。请删除引用此参数的命名参数。 |
|
# DOUBLE |
多个命名参数引用了同一个参数。请只分配一次值。 |
|
4274K |
# NAMED |
函数 |
4274K |
# REQUIRED |
无法调用例程 |
4274K |
# UNEXPECTED |
无法调用例程 |
4274K |
# UNRECOGNIZED |
无法调用例程 |
42802 |
# ASSIGNMENT |
分配或别名化的列或变量的数量: |
42802 |
# STATEFUL |
无法使用无效句柄状态 |
42802 |
# STATEFUL |
无法使用无效时间模式 |
42802 |
# STATEFUL |
StatefulProcessor 中已定义名称为 |
42802 |
# STATEFUL |
无法在 timeMode= |
42802 |
# STATEFUL |
状态存储操作= |
42802 |
# STATEFUL |
未知时间模式 |
42802 |
# STATE |
无法创建以不支持的起始字符和名称= |
42802 |
# STATE |
无法执行列族操作= |
42802 |
# STATE |
列族= |
42802 |
# STATE |
此 StatefulProcessor 的句柄尚未初始化。请仅在 transformWithState 运算符中使用 StatefulProcessor。 |
42802 |
# STATE |
范围扫描编码器的排序序数数量不正确: |
42802 |
# STATE |
前缀扫描编码器的前缀列数量不正确: |
42802 |
# STATE |
范围扫描编码器不支持在索引= |
42802 |
# STATE |
对缺失列族= |
42802 |
# STATE |
范围扫描编码器不支持可变大小的排序列,其名称为 |
42802 |
# UDTF |
AS 子句中提供的别名数量与 UDTF 输出的列数不匹配。预期有 |
42802 |
# UDTF |
无法评估用户定义的表函数,因为其“analyze”方法返回了一个请求的 OrderingColumn,该 OrderingColumn 的列名表达式包含不必要的别名 |
42802 |
# UDTF |
无法评估用户定义的表函数,因为其“analyze”方法返回了一个请求的“select”表达式 ( |
42803 |
# GROUPING |
分组的列 ( |
42803 |
# GROUPING |
grouping_id 的列 ( |
42803 |
# MISSING |
非聚合表达式 |
42803 |
# MISSING |
查询不包含 GROUP BY 子句。添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。 |
42803 |
# UNRESOLVED |
无法根据 SELECT 子句推断 GROUP BY ALL 的分组列。请显式指定分组列。 |
42804 |
# INVALID |
损坏记录的列 |
42804 |
# TRANSPOSE |
TRANSPOSE 的索引列无效,原因: |
42805 |
# GROUP |
GROUP BY 位置 |
42805 |
# ORDER |
ORDER BY 位置 |
42809 |
# EXPECT |
“ |
42809 |
# EXPECT |
“ |
# NO |
||
# USE |
请改用 ALTER VIEW。 |
|
42809 |
# EXPECT |
表 |
# NO |
||
# USE |
请改用 ALTER TABLE。 |
|
42809 |
# FORBIDDEN |
不允许对 |
42809 |
# NOT |
不允许对 |
42809 |
# UNSUPPORTED |
无法插入目标。 |
# MULTI |
只能向具有单个路径的关系写入数据,但给定路径为 |
|
# NOT |
目标关系 |
|
# NOT |
目标关系 |
|
# RDD |
不允许基于 RDD 的表。 |
|
# READ |
目标关系 |
|
42809 |
# WRONG |
操作 |
42815 |
# EMITTING |
前一个节点发出的行事件时间 eventTime= |
42818 |
# INCOMPARABLE |
无效的枢轴列 |
42822 |
# EXPRESSION |
列表达式 |
42822 |
# GROUP |
表达式 |
42822 |
# HINT |
JDBC 数据源不支持 |
42823 |
# INVALID |
无效的子查询 |
# SCALAR |
标量子查询必须只返回一列,但得到了 |
|
# STREAMING |
子查询表达式中不允许流式查询。 |
|
42825 |
# CANNOT |
无法合并不兼容的数据类型 |
42825 |
# INCOMPATIBLE |
|
42826 |
# NUM |
|
42826 |
# NUM |
给定别名的数量与输出列的数量不匹配。函数名: |
42836 |
# INVALID |
发现无效的递归定义。递归查询必须包含一个 UNION 或 UNION ALL 语句,且具有 2 个子项。第一个子项必须是不带任何递归引用的锚定项。 |
42836 |
# INVALID |
在 WITH RECURSIVE 子句中发现无效的递归引用。 |
# NUMBER
|
不允许对一个递归 CTE 进行多次自引用。 |
|
# PLACE
|
递归引用不能用于左外/半/反连接的右侧,右外连接的左侧,全外连接,聚合中,以及子查询表达式中。 |
|
42836 |
# RECURSIVE |
在旧版 CTE 优先级模式下(spark.sql.legacy.ctePrecedencePolicy=LEGACY)不能使用递归定义。 |
42836 |
# RECURSIVE |
当强制 CTE 内联时,不能使用递归定义。 |
42845 |
# AGGREGATE |
非确定性表达式 |
42846 |
# CANNOT |
无法将 |
42846 |
# CANNOT |
无法将 Protobuf |
42846 |
# CANNOT |
无法将 Protobuf 的 |
42846 |
# CANNOT |
无法将 SQL |
42846 |
# CANNOT |
无法将 SQL |
42846 |
# CANNOT |
无法将 |
42846 |
# EXPRESSION |
无法将行解码为表达式的值: |
42846 |
# EXPRESSION |
无法将表达式的值: |
42846 |
# INVALID |
无法将值 |
42846 |
# PARQUET |
无法为数据类型 |
# DECIMAL
|
Parquet DECIMAL 类型只能由 INT32、INT64、FIXED_LEN_BYTE_ARRAY 或 BINARY 支持。 |
|
# UNSUPPORTED
|
请修改转换以确保其受支持。 |
|
# WITHOUT |
请将此列/字段读取为 Spark BINARY 类型。 |
|
42846 |
# PARQUET |
非法的 Parquet 类型: |
42846 |
# PARQUET |
无法识别的 Parquet 类型: |
42846 |
# PARQUET |
尚不支持的 Parquet 类型: |
42846 |
# UNEXPECTED |
类 |
42883 |
# ROUTINE |
找不到例程 |
42883 |
# UNRESOLVABLE |
无法将 |
42883 |
# UNRESOLVED |
无法在搜索路径 |
42883 |
# UNRESOLVED |
无法在搜索路径 |
42883 |
# VARIABLE |
找不到变量 |
428B3 |
# INVALID |
无效的 SQLSTATE 值:“ |
428C4 |
# UNPIVOT |
所有 unpivot 值列的大小必须与值列名 ( |
428EK |
# TEMP |
CREATE TEMPORARY VIEW 或相应的 Dataset API 只接受单部分视图名称,但得到了: |
428FR |
# CANNOT |
ALTER TABLE (ALTER|CHANGE) COLUMN 无法更改桶列的类型/子类型的排序规则,但在表 |
428FR |
# CANNOT |
ALTER TABLE (ALTER|CHANGE) COLUMN 不支持分区列,但在表 |
428FT |
# PARTITIONS |
无法在表 |
428FT |
# PARTITIONS |
在表 |
428H2 |
# EXCEPT |
EXCEPT 列 |
428H2 |
# IDENTITY |
IDENTITY 列不支持数据类型 |
42902 |
# UNSUPPORTED |
无法覆盖正在读取的目标。 |
# PATH
|
目标路径是 |
|
# TABLE
|
目标表是 |
|
42903 |
# GROUP |
GROUP BY 中不允许使用聚合函数,但找到了 |
42903 |
# GROUP |
GROUP BY |
42903 |
# INVALID |
聚合函数中的 FILTER 表达式 |
# CONTAINS |
预期一个不带聚合的 FILTER 表达式,但找到了 |
|
# CONTAINS |
预期一个不带窗口函数的 FILTER 表达式,但找到了 |
|
# NON |
预期一个确定性的 FILTER 表达式。 |
|
# NOT |
预期一个 BOOLEAN 类型的 FILTER 表达式。 |
|
42903 |
# INVALID |
WHERE 条件 |
42908 |
# SPECIFY |
不能同时指定 CLUSTER BY 和 CLUSTERED BY INTO BUCKETS。 |
42908 |
# SPECIFY |
不能同时指定 CLUSTER BY 和 PARTITIONED BY。 |
429BB |
# CANNOT |
无法识别 hive 类型字符串: |
42K01 |
# DATATYPE |
数据类型 |
42K01 |
# INCOMPLETE |
不完整的复杂类型 |
# ARRAY
|
“ARRAY”类型的定义不完整。您必须提供一个元素类型。例如:“ARRAY |
|
# MAP
|
“MAP”类型的定义不完整。您必须提供一个键类型和一个值类型。例如:“MAP |
|
# STRUCT
|
“STRUCT”类型的定义不完整。您必须提供至少一个字段类型。例如:“STRUCT |
|
42K02 |
# DATA |
找不到数据源: |
42K03 |
# BATCH |
无法找到批处理 |
42K03 |
# CANNOT |
无法加载名为 |
42K03 |
# DATA |
数据源表的模式与预期模式不匹配。如果您正在使用 DataFrameReader.schema API 或创建表,请避免指定模式。数据源模式: |
42K03 |
# LOAD |
LOAD DATA 输入路径不存在: |
42K03 |
# PATH |
路径不存在: |
42K03 |
# RENAME |
由于未找到 |
42K03 |
# STDS |
无法读取 checkpointLocation= |
42K03 |
# STDS |
无法读取状态模式。文件可能不存在,或者文件已损坏。选项: |
42K03 |
# STREAMING |
流式有状态操作符名称与状态元数据中的操作符不匹配。这通常发生在用户添加/删除/更改现有流式查询的有状态操作符时。元数据中的有状态操作符:[ |
42K04 |
# FAILED |
由于目标已存在,无法将 |
42K04 |
# PATH |
路径 |
42K05 |
# INVALID |
位置名称不能为空字符串,但给定的是 |
42K05 |
# REQUIRES |
|
42K05 |
# SHOW |
SHOW COLUMNS 与冲突的命名空间: |
42K06 |
# INVALID |
无效选项 |
# NON |
选项必须使用 |
|
# NON |
|
|
42K06 |
# STATE |
在重启之间无法将 |
42K06 |
# STATE |
给定的状态存储提供程序 |
42K06 |
# STATE |
查询重启之间无法将 |
42K06 |
# STATE |
给定的状态存储提供程序 |
42K06 |
# STATE |
状态模式文件数量 |
42K06 |
# STATE |
状态模式演进次数 |
42K07 |
# INVALID |
输入模式 |
# NON |
输入表达式必须是字符串字面量且非空。 |
|
# NON |
输入表达式应求值为结构体类型,但得到了 |
|
# PARSE |
无法解析模式: |
|
42K08 |
# INVALID |
|
42K08 |
# NON |
函数 |
42K08 |
# NON |
枢轴值需要字面量表达式,找到了 |
42K08 |
# SEED |
表达式 |
42K09 |
# COMPLEX |
无法处理表达式的输入数据类型: |
# BAD |
|
|
# MISMATCHED |
所有输入类型必须相同,除了 nullable、containsNull、valueContainsNull 标志,但找到了输入类型 |
|
# NO |
输入数据类型集合不能为空。 |
|
42K09 |
# DATATYPE |
由于数据类型不匹配,无法解析 |
# ARRAY |
|
|
# BINARY |
函数 |
|
# BINARY |
二进制运算符的左操作数和右操作数具有不兼容的类型( |
|
# BINARY |
二进制运算符需要输入类型 |
|
# BLOOM |
|
|
# BLOOM |
函数 |
|
# CANNOT |
无法将类型为 |
|
# CANNOT |
无法删除结构体中的所有字段。 |
|
# CAST |
无法将 |
|
# CAST |
在 ANSI 模式下无法将 |
|
# CAST |
无法将 |
|
# CREATE |
函数 |
|
# CREATE |
函数 |
|
# CREATE |
只有可折叠的 |
|
# DATA |
|
|
# FILTER |
类型为 |
|
# HASH |
函数 |
|
# HASH |
函数 |
|
# INPUT |
|
|
# INVALID |
|
|
# INVALID |
输入模式 |
|
# INVALID |
输入模式 |
|
# INVALID |
map 的键不能是/包含 |
|
# INVALID |
|
|
# INVALID |
|
|
# INVALID |
输入模式 |
|
# IN |
IN 子查询左侧的一个或多个元素的数据类型与子查询输出的数据类型不兼容。不匹配的列:[ |
|
# IN |
IN 子查询左侧的列数与子查询输出的列数不匹配。左侧列(长度: |
|
# MAP |
|
|
# MAP |
|
|
# MAP |
|
|
# NON |
输入 |
|
# NON |
函数 |
|
# NON |
输入 |
|
# NULL |
空类型值不能用作 |
|
# PARAMETER |
|
|
# RANGE |
排序规范中使用的数据类型 |
|
# RANGE |
在具有多个 ORDER BY 表达式的窗口规范中,不能使用具有值边界的范围窗口帧: |
|
# RANGE |
范围窗口帧不能在无序窗口规范中使用。 |
|
# SEQUENCE |
|
|
# SPECIFIED |
窗口帧边界 |
|
# SPECIFIED |
窗口帧上限 |
|
# SPECIFIED |
|
|
# SPECIFIED |
窗口帧 |
|
# SPECIFIED |
窗口帧的下限必须 |
|
# STACK |
列 ( |
|
# TYPE |
|
|
# UNEXPECTED |
未找到类 |
|
# UNEXPECTED |
参数 |
|
# UNEXPECTED |
|
|
# UNEXPECTED |
|
|
# UNEXPECTED |
在 |
|
# UNSUPPORTED |
|
|
# VALUE |
|
|
# WRONG |
表达式需要 |
|
# WRONG |
要构建区间,端点数量必须 >= 2,但实际数量为 |
|
42K09 |
# EVENT |
事件时间 |
42K09 |
# INVALID |
变量类型必须是字符串类型,但得到了 |
42K09 |
# PIVOT |
无效的枢轴值 ' |
42K09 |
# TRANSPOSE |
转置需要非索引列共享一个最小公共类型,但 |
42K09 |
# UNEXPECTED |
函数 |
42K09 |
# UNPIVOT |
Unpivot 值列必须共享一个最小公共类型,部分类型不共享:[ |
42K0A |
# UNPIVOT |
当没有给定 |
42K0A |
# UNPIVOT |
UNPIVOT 至少需要指定一个值列,所有列都指定为 ID。 |
42K0B |
# INCONSISTENT |
由于升级到 |
# DATETIME |
Spark >= 3.0:DateTimeFormatter 中无法识别 |
|
# DATETIME |
Spark >= 3.0:自 Spark 3.0 起,所有基于周的模式都不受支持,检测到基于周的字符: |
|
# PARSE |
Spark >= 3.0:在新解析器中无法解析 |
|
# READ |
Spark >= 3.0:从 |
|
# WRITE |
Spark >= 3.0:将 1582-10-15 之前的日期或 1900-01-01T00:00:00Z 之前的时间戳写入 |
|
42K0D |
# INVALID |
无效的 lambda 函数调用。 |
# DUPLICATE |
lambda 函数具有重复参数 |
|
# NON |
lambda 函数只能用于高阶函数。但是,它的类是 |
|
# NUM |
高阶函数预期 |
|
# PARAMETER |
您将 lambda 函数传递给了不接受它的参数。请检查 lambda 函数参数是否在正确的位置。 |
|
42K0E |
# INVALID |
类似 LIMIT 的表达式 |
# DATA |
|
|
# IS |
|
|
# IS |
求值的 |
|
# IS |
|
|
42K0E |
# INVALID |
操作符需要确定性表达式,但实际表达式是 |
42K0E |
# INVALID |
无效的观察指标。 |
# AGGREGATE |
观察指标中不允许带有 DISTINCT 的聚合表达式,但找到了: |
|
# AGGREGATE |
观察指标中不允许带有 FILTER 谓词的聚合表达式,但找到了: |
|
# MISSING |
观察指标应命名为: |
|
# NESTED |
观察指标中不允许嵌套聚合,但找到了: |
|
# NON |
属性 |
|
# 后来发现了:# NON |
非确定性表达式 |
|
# WINDOW |
观察指标中不允许窗口表达式,但找到了: |
|
42K0E |
# INVALID |
时间回溯表时不能同时指定版本和时间戳。 |
42K0E |
# INVALID |
时间回溯时间戳表达式 |
# INPUT
|
无法转换为“TIMESTAMP”类型。 |
|
# NON |
必须是确定性的。 |
|
# OPTION
|
选项中的时间戳字符串必须可以转换为 TIMESTAMP 类型。 |
|
# UNEVALUABLE
|
必须可求值。 |
|
42K0E |
# JOIN |
联接条件 |
42K0E |
# MULTIPLE |
不能同时在时间回溯子句和选项中指定时间回溯。 |
42K0E |
# MULTI |
|
42K0E |
# MULTI |
表达式 |
42K0E |
# NO |
df.mergeInto 后面需要至少跟一个 whenMatched/whenNotMatched/whenNotMatchedBySource。 |
42K0E |
# UNSUPPORTED |
查询操作符包含一个或多个不受支持的表达式。请考虑重写它以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。无效表达式:[ |
42K0E |
# UNSUPPORTED |
查询参数包含不受支持的表达式。参数可以是变量或字面量。无效表达式:[ |
42K0E |
# UNSUPPORTED |
不支持生成器 |
# MULTI |
每个 SELECT 子句只允许一个生成器,但找到了 |
|
# NESTED |
嵌套在表达式 |
|
# NOT |
|
|
# OUTSIDE |
在 SELECT 子句之外,发现: |
|
42K0E |
# UNSUPPORTED |
grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 一起使用。 |
42K0E |
# UNSUPPORTED |
MERGE 操作包含不受支持的 |
# AGGREGATE
|
不允许聚合: |
|
# NON |
不允许非确定性表达式: |
|
# SUBQUERY
|
不允许子查询: |
|
42K0E |
# UNTYPED |
您正在使用无类型 Scala UDF,它没有输入类型信息。Spark 可能会盲目地将 null 传递给带有原始类型参数的 Scala 闭包,并且闭包将看到 null 参数的 Java 类型的默认值,例如 |
42K0E |
# WINDOW |
|
42K0F |
# INVALID |
无法创建类型为 |
42K0G |
# PROTOBUF |
找不到依赖项: |
42K0G |
# PROTOBUF |
读取路径为 |
42K0G |
# PROTOBUF |
在 Protobuf 模式 |
42K0G |
# PROTOBUF |
在 Protobuf 模式中找到了 |
42K0G |
# PROTOBUF |
字段类型不匹配: |
42K0G |
# PROTOBUF |
无法在描述符中找到消息 |
42K0G |
# PROTOBUF |
Protobuf 类型尚不支持: |
42K0G |
# RECURSIVE |
在 Protobuf 模式中发现递归引用,Spark 默认无法处理: |
42K0G |
# UNABLE |
无法将 SQL 类型 |
42K0G |
# UNKNOWN |
尝试将 |
42K0H |
# RECURSIVE |
检测到递归视图 |
42K0I |
# SQL |
找不到 SQL 配置 |
42K0K |
# INVALID |
带有 WITHIN GROUP 的函数 |
# DISTINCT |
函数不支持带有 WITHIN GROUP 的 DISTINCT。 |
|
# MISMATCH |
函数与 DISTINCT 和 WITHIN GROUP 一起调用,但表达式 |
|
# WITHIN |
函数需要 WITHIN GROUP。 |
|
# WRONG |
函数在 WITHIN GROUP 中需要 |
|
42K0L |
# END |
结束标签 |
42K0L |
# INVALID |
标签 |
# DOES |
标签在 |
|
# ITERATE |
ITERATE 语句不能与属于复合 (BEGIN...END) 主体的标签一起使用。 |
|
# QUALIFIED |
标签不能限定。 |
|
42K0L |
# LABELS |
开始标签 |
42K0L |
# LABEL |
标签 |
42K0L |
# LABEL |
标签名 |
42K0M |
# INVALID |
变量声明无效。 |
# NOT |
此作用域中不允许声明变量 |
|
# ONLY |
变量 |
|
# QUALIFIED |
变量 |
|
# REPLACE |
变量 |
|
42K0N |
# INVALID |
外部类型 |
42K0O |
# SCALAR |
标量函数 |
42K0P |
# SCALAR |
标量函数 |
42K0Q |
# INVALID |
无效的处理程序声明。 |
# CONDITION |
未找到条件 |
|
# DUPLICATE |
在处理程序声明中发现重复条件 |
|
# DUPLICATE |
在处理程序声明中发现重复的 sqlState |
|
# INVALID |
处理程序声明中的条件组合无效。SQLEXCEPTION 和 NOT FOUND 不能与其他条件/sqlstate 值一起使用。 |
|
# WRONG |
处理程序必须在变量/条件声明之后、其他语句之前声明。 |
|
42K0R |
# INVALID |
无效的条件声明。 |
# NOT |
条件 |
|
# QUALIFIED |
条件 |
|
# SPECIAL |
在条件名称 |
|
42KD0 |
# AMBIGUOUS |
嵌套 CTE 中的名称 |
42KD9 |
# CANNOT |
合并模式失败:初始模式: |
42KD9 |
# UNABLE |
无法推断 |
42KDE |
# CALL |
无法在流式 Dataset/DataFrame 上调用方法 |
42KDE |
# CANNOT |
创建数据源表 |
# EXTERNAL |
提供程序“ |
|
42KDE |
# INVALID |
数据源写入器生成了无效数量的提交消息。预期每个任务正好有一个写入器提交消息,但收到了 |
42KDE |
# NON |
流式 DataFrames/Datasets 上不支持 |
42KDE |
# STREAMING |
无效的流式输出模式: |
# INVALID
|
接受的输出模式为“Append”、“Complete”、“Update”。 |
|
# UNSUPPORTED |
数据源 |
|
# UNSUPPORTED |
流式 DataFrames/DataSets 上的 |
|
42KDF |
# XML |
以 XML 格式读取/写入文件时,需要 |
42P01 |
# TABLE |
找不到表或视图 |
42P01 |
# VIEW |
视图 |
42P02 |
# UNBOUND |
发现未绑定的参数: |
42P06 |
# SCHEMA |
无法创建模式 |
42P07 |
# TABLE |
无法创建表或视图 |
42P07 |
# TEMP |
无法创建临时视图 |
42P07 |
# VIEW |
无法创建视图 |
42P08 |
# CATALOG |
未找到目录 |
42P10 |
# CLUSTERING |
指定的集群与现有表 |
42P20 |
# MISSING |
未在 |
42P20 |
# UNSUPPORTED |
窗口函数中不支持表达式 |
42P21 |
# COLLATION |
无法确定字符串函数和运算符要使用的排序规则。 |
# EXPLICIT
|
由于显式排序规则不匹配而发生错误:[ |
|
# IMPLICIT
|
由于隐式排序规则不匹配而发生错误:[ |
|
42P22 |
# INDETERMINATE |
无法确定字符串操作要使用的排序规则。请使用 COLLATE 子句显式设置排序规则。 |
42P22 |
# INDETERMINATE |
|
42P22 |
# INDETERMINATE |
模式在以下位置包含不确定排序规则:[ |
42S22 |
# NO |
无法在 Protobuf 模式中找到 |
42S23 |
# PARTITION |
表达式 |
46103 |
# CANNOT |
注册函数 |
46110 |
# CANNOT |
无法修改 Spark 配置的值: |
46121 |
# INVALID |
数据源 |
46121 |
# INVALID |
|
51024 |
# INCOMPATIBLE |
视图 |
53200 |
# UNABLE |
无法获取 |
54000 |
# COLLECTION |
无法创建包含 |
# FUNCTION
|
在函数 |
|
# INITIALIZE
|
无法使用指定的参数初始化数组。 |
|
# PARAMETER
|
函数 |
|
54000 |
# GROUPING |
分组集大小不能大于 |
54001 |
# FAILED |
该语句(包括潜在的 SQL 函数和引用的视图)过于复杂,无法解析。若要缓解此错误,请将语句划分为多个复杂度较低的块。 |
54006 |
# EXCEED |
超出 char/varchar 类型长度限制: |
54006 |
# KRYO |
Kryo 序列化失败: |
54006 |
# TRANSPOSE |
行数超过了 TRANSPOSE 的允许限制 |
54011 |
# TUPLE |
由于 Scala 对元组的支持有限,不支持包含 22 个以上元素的元组。 |
54023 |
# TABLE |
表值函数的表参数过多。它允许一个表参数,但获得了: |
54K00 |
# VIEW |
视图 |
56000 |
# CHECKPOINT |
未找到检查点块 |
56038 |
# CODEC |
编解码器 |
# WITH |
可用编解码器为 |
|
# WITH |
请考虑将配置 |
|
56038 |
# FEATURE |
功能 |
56038 |
# GET |
Hive 2.2 及更低版本不支持 getTablesByType。请使用 Hive 2.3 或更高版本。 |
56038 |
# INCOMPATIBLE |
检测到不兼容的 DataSourceRegister。请从类路径中删除不兼容的库或升级它。错误: |
56K00 |
# CONNECT
|
一般 Spark Connect 错误。 |
# INTERCEPTOR |
无法实例化 GRPC 拦截器,因为 |
|
# INTERCEPTOR |
实例化 GRPC 拦截器时出错: |
|
# PLUGIN |
无法实例化 Spark Connect 插件,因为 |
|
# PLUGIN |
实例化 Spark Connect 插件时出错: |
|
# SESSION |
两个数据集必须属于同一个 SparkSession。 |
|
58030 |
# CANNOT |
加载状态时发生错误。 |
# CANNOT |
无法找到具有 lineage: |
|
# CANNOT |
无法读取 RocksDB 检查点元数据。预期版本为 |
|
# CANNOT |
读取 |
|
# CANNOT |
读取 |
|
# CANNOT |
读取 |
|
# CANNOT |
读取 |
|
# CANNOT |
读取 |
|
# CANNOT |
读取流式状态文件 |
|
# HDFS |
由于内存不足异常,无法加载 ID 为 |
|
# INVALID |
更改日志读取器版本不能为 |
|
# INVALID |
更改日志写入器版本不能为 |
|
# ROCKSDB |
由于内存不足异常,无法加载 ID 为 |
|
# SNAPSHOT |
在 |
|
# UNCATEGORIZED
|
||
# UNEXPECTED |
已将 |
|
# UNEXPECTED |
版本不能为 |
|
# UNRELEASED |
|
|
58030 |
# CANNOT |
无法将已创建路径 |
58030 |
# CANNOT |
为提供程序 |
# CANNOT |
状态检查点期间无法执行提交。 |
|
58030 |
# FAILED |
无法将临时文件 |
58030 |
# INVALID |
无效的存储桶文件: |
58030 |
# TASK |
向 |
58030 |
# UNABLE |
无法获取 Hive 数据库 |
F0000 |
# INVALID |
系统内存 |
F0000 |
# INVALID |
执行器内存 |
F0000 |
# INVALID |
配置“ |
HV000 |
# FAILED |
JDBC |
# ALTER |
更改表 |
|
# CREATE |
在 |
|
# CREATE |
创建命名空间 |
|
# CREATE |
为命名空间创建注释: |
|
# CREATE |
创建表 |
|
# DROP |
删除 |
|
# DROP |
删除命名空间 |
|
# GET |
从命名空间获取表: |
|
# LIST |
列出命名空间。 |
|
# LOAD |
加载表 |
|
# NAMESPACE |
检查命名空间 |
|
# REMOVE |
删除命名空间上的注释: |
|
# RENAME |
将表 |
|
# TABLE |
检查表 |
|
# UNCLASSIFIED
|
|
|
HV091 |
# NONEXISTENT |
字段 |
HY000 |
# INVALID |
句柄 |
# FORMAT
|
句柄必须是格式为 '00112233-4455-6677-8899-aabbccddeeff' 的 UUID 字符串 |
|
# OPERATION |
操作因不活动而被视为已放弃并已删除。 |
|
# OPERATION |
操作已存在。 |
|
# OPERATION |
未找到操作。 |
|
# SESSION |
现有 Spark 服务器驱动程序实例已重新启动。请重新连接。 |
|
# SESSION |
会话已关闭。 |
|
# SESSION |
未找到会话。 |
|
HY000 |
# MISSING |
操作已超时,但未配置超时持续时间。若要设置基于处理时间的超时,请在 'mapGroupsWithState' 或 'flatMapGroupsWithState' 操作中使用 'GroupState.setTimeoutDuration()'。若要设置基于事件时间的超时,请使用 'GroupState.setTimeoutTimestamp()' 并使用 'Dataset.withWatermark()' 定义水印。 |
HY008 |
# OPERATION |
操作已取消。 |
HY109 |
# INVALID |
游标无效。 |
# DISCONNECTED
|
游标已被服务器断开连接。 |
|
# NOT |
游标无法重新附加。 |
|
# POSITION |
游标位置 ID |
|
# POSITION |
未找到游标位置 ID |
|
KD000 |
# FAILED |
无法向 Kryo 注册类。 |
KD000 |
# GRAPHITE |
无效的 Graphite 协议: |
KD000 |
# GRAPHITE |
Graphite 接收器需要“ |
KD000 |
# INCOMPATIBLE |
无法为表 |
# AMBIGUOUS |
输入数据 |
|
# CANNOT |
无法找到输出列 |
|
# CANNOT |
无法安全地将 |
|
# EXTRA |
无法写入额外列 |
|
# EXTRA |
无法将额外字段 |
|
# NULLABLE |
无法将可为空元素写入非空数组: |
|
# NULLABLE |
无法将可为空值写入非空列 |
|
# NULLABLE |
无法将可为空值写入非空映射: |
|
# STRUCT |
结构体 |
|
# UNEXPECTED |
结构体 |
|
KD000 |
# MALFORMED |
格式错误的 CSV 记录: |
KD001 |
# FAILED |
读取文件 |
# CANNOT |
无法读取页脚。请确保文件为 ORC 或 Parquet 格式。如果不是,请将其转换为有效格式。如果文件为有效格式,请检查其是否已损坏。如果已损坏,可以选择忽略或修复损坏。 |
|
# FILE |
文件不存在。底层文件可能已更新。您可以通过在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建相关数据集/数据帧来显式使 Spark 中的缓存失效。 |
|
# NO |
||
# PARQUET |
读取 Parquet 列 |
|
# UNSUPPORTED |
文件系统 |
|
KD002 |
# INVALID |
不支持的日志版本。 |
# EXACT |
唯一受支持的日志版本是 v |
|
# MAX |
最大受支持的日志版本是 v |
|
KD002 |
# MALFORMED |
日志文件格式错误:无法从 |
KD005 |
# ALL |
无法将所有列用于分区列。 |
KD006 |
# STDS |
未找到已提交的批处理,检查点位置: |
KD006 |
# STDS |
该状态没有任何分区。请仔细检查查询是否指向有效状态。选项: |
KD006 |
# STDS |
|
KD006 |
# STDS |
|
KD009 |
# CONFLICTING |
检测到冲突的目录结构。可疑路径: |
KD009 |
# CONFLICTING |
检测到冲突的分区列名: |
KD00B |
# ERROR |
读取 Avro 数据时出错 -- 遇到未知指纹: |
KD010 |
# DATA |
保存到外部数据源时遇到错误。 |
P0001 |
# USER |
|
P0001 |
# USER |
|
P0001 |
# USER |
|
XX000 |
# AMBIGUOUS |
单次分析器无法处理此查询或命令,因为 |
XX000 |
# CONNECT |
一般 Spark Connect ML 错误。 |
# ATTRIBUTE |
不允许访问 |
|
# CACHE |
无法从 ML 缓存中检索 |
|
# UNSUPPORTED |
|
|
XX000 |
# HYBRID |
尝试使用旧式定点分析器和单次解析器解析查询或命令时发生故障。 |
# FIXED |
定点解析失败,但单次解析成功。单次分析器输出: |
|
# LOGICAL |
定点分析器和单次分析器的输出不匹配。定点分析器输出: |
|
# OUTPUT |
定点分析器和单次分析器的输出模式不匹配。定点分析器输出模式: |
|
XX000 |
# MALFORMED |
在消息反序列化中检测到格式错误的 Protobuf 消息。解析模式: |
XX000 |
# MISSING |
操作符 |
# RESOLVED |
操作中出现同名属性: |
|
# RESOLVED |
||
XX000 |
# STATE |
流式查询未能验证键行的写入状态。这可能由以下原因导致:1. 旧版 Spark 写入的检查点与当前版本不兼容 2. 检查点文件已损坏 3. 查询在重启之间以不兼容的方式发生更改。对于第一种情况,请使用新的检查点目录或使用原始 Spark 版本处理流式状态。检索到的错误消息= |
XX000 |
# STATE |
流式查询未能验证值行的写入状态。这可能由以下原因导致:1. 旧版 Spark 写入的检查点与当前版本不兼容 2. 检查点文件已损坏 3. 查询在重启之间以不兼容的方式发生更改。对于第一种情况,请使用新的检查点目录或使用原始 Spark 版本处理流式状态。检索到的错误消息= |
XXKD0 |
# INVALID |
无效的 SQL 函数计划结构 |
XXKD0 |
# PLAN |
|
XXKD0 |
# PLAN |
批次 |
XXKDA |
# SPARK |
作业 |
XXKST |
# STATE |
模式演变不可能实现 新的 value_schema= |
XXKST |
# STATE |
提供的键模式与现有状态键模式不匹配。请检查字段的数量和类型。现有 key_schema= |
XXKST |
# STATE |
流式有状态操作符尝试乱序访问状态存储。这是一个错误,请重试。error_msg= |
XXKST |
# STATE |
|
XXKST |
# STATE |
状态存储不支持二进制不等式列。提供的模式: |
XXKST |
# STATE |
提供的值模式与现有状态值模式不匹配。请检查字段的数量和类型。现有 value_schema= |
XXKST |
# STDS |
内部错误: |
XXKST |
# STREAMING |
流式运行程序初始化失败,返回 |
XXKST |
# STREAM |
查询 [id = |
XXKST |
# TRANSFORM |
如果启用了 Avro 编码,在使用 TransformWithState 操作符时,列族 |
XXKUC |
# INSUFFICIENT |
找不到表属性 |
# MISSING |
|
|
# MISSING |
预期有 |