错误条件

这是 Spark SQL 可能返回的错误状态和条件的列表。

错误状态 / SQLSTATE 错误条件和子条件 消息
07001 # ALL_PARAMETERS_MUST_BE_NAMED

使用命名参数化查询要求所有参数都必须命名。缺少命名的参数:<exprs>

07501 # INVALID_STATEMENT_FOR_EXECUTE_INTO

EXECUTE IMMEDIATE 的 INTO 子句仅对查询有效,但给定的语句不是查询:<sqlString>

07501 # NESTED_EXECUTE_IMMEDIATE

不允许嵌套 EXECUTE IMMEDIATE 命令。请确保提供的 SQL 查询 (<sqlString>) 不包含其他 EXECUTE IMMEDIATE 命令。

07501 # SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

EXECUTE IMMEDIATE 命令中不允许使用 SQL 脚本。请确保提供的 SQL 查询 (<sqlString>) 不是 SQL 脚本。确保 sql_string 是格式正确的 SQL 语句,不包含 BEGIN 和 END。

0A000 # CANNOT_INVOKE_IN_TRANSFORMATIONS

数据集转换和操作只能由驱动程序调用,不能在其他数据集转换内部调用;例如,dataset1.map(x => dataset2.values.count() * x) 是无效的,因为 values 转换和 count 操作不能在 dataset1.map 转换内部执行。有关更多信息,请参阅 SPARK-28702。

0A000 # CANNOT_UPDATE_FIELD

无法更新 <table> 字段 <fieldName> 类型

# ARRAY_TYPE

通过更新 <fieldName>.element 来更新元素。

# INTERVAL_TYPE

通过更新其字段来更新间隔。

# MAP_TYPE

通过更新 <fieldName>.key 或 <fieldName>.value 来更新映射。

# STRUCT_TYPE

通过更新其字段来更新结构体。

# USER_DEFINED_TYPE

通过更新其字段来更新 UserDefinedType[<udtSql>]。

0A000 # CLASS_UNSUPPORTED_BY_MAP_OBJECTS

MapObjects 不支持类 <cls> 作为结果集合。

0A000 # COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

字段 <pos> 中的某些值与列数组类型不兼容。预期类型 <type>

0A000 # CONCURRENT_QUERY

此查询的另一个实例刚刚由并发会话启动。

0A000 # CORRUPTED_CATALOG_FUNCTION

由于目录中函数信息损坏,无法将目录函数 '<identifier>' 转换为 SQL 函数。如果该函数不是 SQL 函数,请确保类名 '<className>' 可以加载。

0A000 # CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

不允许创建永久视图 <name> 而不为表达式 <attr> 显式分配别名。

0A000 # DESCRIBE_JSON_NOT_EXTENDED

DESCRIBE TABLE ... AS JSON 仅在指定 [EXTENDED|FORMATTED] 时受支持。例如:DESCRIBE EXTENDED <tableName> AS JSON 受支持,但 DESCRIBE <tableName> AS JSON 不受支持。

0A000 # DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

不支持 DISTINCT 窗口函数:<windowExpr>

0A000 # EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

<format> 数据源不支持写入空或嵌套空模式。请确保数据模式至少有一个或多个列。

0A000 # INVALID_PANDAS_UDF_PLACEMENT

组聚合 Pandas UDF <functionList> 不能与其他非 Pandas 聚合函数一起调用。

0A000 # INVALID_PARTITION_COLUMN_DATA_TYPE

不能将 <type> 用于分区列。

0A000 # MULTI_UDF_INTERFACE_ERROR

不允许实现多个 UDF 接口,UDF 类 <className>

0A000 # NAMED_PARAMETER_SUPPORT_DISABLED

无法调用函数 <functionName>,因为此处未启用命名参数引用。在这种情况下,命名参数引用是 <argument>。将 "spark.sql.allowNamedFunctionArguments" 设置为 "true" 以启用该功能。

0A000 # NEGATIVE_SCALE_DISALLOWED

不允许负刻度:'<scale>'。将配置 <sqlConf> 设置为 "true" 以允许。

0A000 # NOT_SUPPORTED_CHANGE_COLUMN

ALTER TABLE ALTER/CHANGE COLUMN 不支持更改 <table> 的列 <originName> 从类型 <originType><newName> 类型 <newType>

0A000 # NOT_SUPPORTED_CHANGE_SAME_COLUMN

ALTER TABLE ALTER/CHANGE COLUMN 不支持在同一个命令中多次更改 <table> 的列 <fieldName> 及其嵌套字段。

0A000 # NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

<cmd> 不支持 V2 表。

0A000 # NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

不支持 <cmd>,如果想启用它,请将 "spark.sql.catalogImplementation" 设置为 "hive"。

0A000 # NOT_SUPPORTED_IN_JDBC_CATALOG

JDBC 目录中不支持的命令

# COMMAND

<cmd>

# COMMAND_WITH_PROPERTY

<cmd> 带有属性 <property>

0A000 # PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

非分组表达式 <expr> 作为 |> AGGREGATE 管道运算符的参数提供,但不包含任何聚合函数;请更新它以包含聚合函数,然后重试查询。

0A000 # PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

使用管道运算符 |> <clause> 子句时,不允许使用聚合函数 <expr>;请改用管道运算符 |> AGGREGATE 子句。

0A000 # SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

相关标量子查询 '<sqlExpr>' 既不在 GROUP BY 中,也不在聚合函数中。将其通过序号位置添加到 GROUP BY,或者如果你不关心获取哪个值,则将其包装在 first() (或 first_value) 中。

0A000 # STAR_GROUP_BY_POS

当使用 GROUP BY 序号位置时,SELECT 列表中不允许使用星号 (*)。

0A000 # TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

无法 <action> 带有 TABLE 参数的 SQL 用户定义函数 <functionName>,因为此功能尚未实现。

0A000 # UNSUPPORTED_ADD_FILE

不支持添加文件。

# DIRECTORY

文件 <path> 是一个目录,考虑将 "spark.sql.legacy.addSingleFileInAddFile" 设置为 "false"。

# LOCAL_DIRECTORY

在非本地主模式下不支持本地目录 <path>

0A000 # UNSUPPORTED_ARROWTYPE

不支持的 Arrow 类型 <typeName>

0A000 # UNSUPPORTED_CALL

无法调用类 "<className>" 的方法 "<methodName>"。

# FIELD_INDEX

该行应具有一个模式才能获取字段 <fieldName> 的索引。

# WITHOUT_SUGGESTION
0A000 # UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

char/varchar 类型不能用于表模式。如果您希望 Spark 像 Spark 3.0 及更早版本一样将它们视为字符串类型,请将 "spark.sql.legacy.charVarcharAsString" 设置为 "true"。

0A000 # UNSUPPORTED_COLLATION

不支持排序规则 <collationName>,用于

# FOR_FUNCTION

函数 <functionName>。请尝试使用不同的排序规则。

0A000 # UNSUPPORTED_CONNECT_FEATURE

Spark Connect 不支持此功能

# DATASET_QUERY_EXECUTION

访问 Dataset Query Execution。这是服务器端开发人员 API。

# RDD

弹性分布式数据集 (RDD)。

# SESSION_BASE_RELATION_TO_DATAFRAME

调用 SparkSession 'baseRelationToDataFrame'。这是服务器端开发人员 API

# SESSION_EXPERIMENTAL_METHODS

访问 SparkSession 实验性(方法)。这是服务器端开发人员 API

# SESSION_LISTENER_MANAGER

访问 SparkSession 监听器管理器。这是服务器端开发人员 API

# SESSION_SESSION_STATE

访问 SparkSession 会话状态。这是服务器端开发人员 API。

# SESSION_SHARED_STATE

访问 SparkSession 共享状态。这是服务器端开发人员 API。

# SESSION_SPARK_CONTEXT

访问 SparkContext。

0A000 # UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

文件直查不支持的数据源类型:<dataSourceType>

0A000 # UNSUPPORTED_DATATYPE

不支持的数据类型 <typeName>

0A000 # UNSUPPORTED_DATA_SOURCE_SAVE_MODE

数据源 "<source>" 不能以 <createMode> 模式写入。请改用 "Append" 或 "Overwrite" 模式。

0A000 # UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

<format> 数据源不支持类型为 <columnType> 的列 <columnName>

0A000 # UNSUPPORTED_DATA_TYPE_FOR_ENCODER

无法为 <dataType> 创建编码器。请为您的 UDF 或 DataFrame 使用不同的输出数据类型。

0A000 # UNSUPPORTED_DEFAULT_VALUE

不支持 DEFAULT 列值。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

通过将 "spark.sql.defaultColumn.enabled" 设置为 "true" 来启用它。

0A000 # UNSUPPORTED_DESERIALIZER

不支持反序列化器

# DATA_TYPE_MISMATCH

需要一个 <desiredType> 字段,但得到了 <dataType>

# FIELD_NUMBER_MISMATCH

尝试将 <schema> 映射到 Tuple<ordinal>,但由于字段数量不一致而失败。

0A000 # UNSUPPORTED_FEATURE

不支持该功能

# AES_MODE

<functionName> 函数使用 <padding> 填充的 AES-<mode>

# AES_MODE_AAD

<functionName> 与 AES-<mode> 不支持附加认证数据 (AAD)。

# AES_MODE_IV

<functionName> 与 AES-<mode> 不支持初始化向量 (IV)。

# ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE

对于使用数据源 API 创建的表 <tableName>,不支持 ALTER TABLE SET SERDE。考虑使用外部 Hive 表或使用与您的表格式兼容的选项更新表属性。

# ANALYZE_UNCACHED_TEMP_VIEW

ANALYZE TABLE FOR COLUMNS 命令可以操作已缓存的临时视图。考虑缓存视图 <viewName>

# ANALYZE_UNSUPPORTED_COLUMN_TYPE

ANALYZE TABLE FOR COLUMNS 命令不支持表 <tableName> 中列 <columnName> 的类型 <columnType>

# ANALYZE_VIEW

ANALYZE TABLE 命令不支持视图。

# CATALOG_OPERATION

目录 <catalogName> 不支持 <operation>

# CLAUSE_WITH_PIPE_OPERATORS

使用 |> 的 SQL 管道运算符语法不支持 <clauses>

# COLLATIONS_IN_MAP_KEYS

映射键的排序字符串

# COMBINATION_QUERY_RESULT_CLAUSES

ORDER BY/SORT BY/DISTRIBUTE BY/CLUSTER BY 的组合。

# COMMENT_NAMESPACE

为命名空间 <namespace> 添加注释。

# CONTINUE_EXCEPTION_HANDLER

不支持 CONTINUE 异常处理程序。请使用 EXIT 处理程序。

# DESC_TABLE_COLUMN_JSON

DESC TABLE COLUMN AS JSON 不支持单个列。

# DESC_TABLE_COLUMN_PARTITION

DESC TABLE COLUMN 用于特定分区。

# DROP_DATABASE

删除默认数据库 <database>

# DROP_NAMESPACE

删除命名空间 <namespace>

# HIVE_TABLE_TYPE

<tableName> 是 hive <tableType>

# HIVE_WITH_ANSI_INTERVALS

带有 ANSI 间隔的 Hive 表 <tableName>

# INSERT_PARTITION_SPEC_IF_NOT_EXISTS

INSERT INTO <tableName> 在 PARTITION 规范中带有 IF NOT EXISTS。

# LAMBDA_FUNCTION_WITH_PYTHON_UDF

在高阶函数中,Lambda 函数与 Python UDF <funcName>

# LATERAL_COLUMN_ALIAS_IN_AGGREGATE_FUNC

在聚合函数 <aggFunc> 中引用侧向列别名 <lca>

# LATERAL_COLUMN_ALIAS_IN_AGGREGATE_WITH_WINDOW_AND_HAVING

在同时包含窗口表达式和 HAVING 子句的聚合查询中引用侧向列别名 <lca>。请通过删除 HAVING 子句或删除 SELECT 列表中的侧向别名引用来重写聚合查询。

# LATERAL_COLUMN_ALIAS_IN_GENERATOR

在生成器表达式 <generatorExpr> 中引用侧向列别名 <lca>

# LATERAL_COLUMN_ALIAS_IN_GROUP_BY

通过 GROUP BY alias/ALL 引用侧向列别名尚不支持。

# LATERAL_COLUMN_ALIAS_IN_WINDOW

在窗口表达式 <windowExpr> 中引用侧向列别名 <lca>

# LATERAL_JOIN_USING

带有 LATERAL 关联的 JOIN USING。

# LITERAL_TYPE

<type> 类型的字面值 '<value>'。

# MULTIPLE_BUCKET_TRANSFORMS

多个桶转换。

# MULTI_ACTION_ALTER

承载表 <tableName> 的目标 JDBC 服务器不支持带有多个动作的 ALTER TABLE。请将 ALTER TABLE 分解为单独的动作以避免此错误。

# OBJECT_LEVEL_COLLATIONS

指定对象的默认排序规则。

# ORC_TYPE_CAST

无法将 Orc 的 <orcType> 转换为数据类型 <toType>

# OVERWRITE_BY_SUBQUERY

带有子查询条件的 INSERT OVERWRITE。

# PANDAS_UDAF_IN_PIVOT

PIVOT 子句中的 Pandas 用户定义聚合函数。

# PARAMETER_MARKER_IN_UNEXPECTED_STATEMENT

<statement> 中不允许使用参数标记。

# PARTITION_BY_VARIANT

不能使用生成 VARIANT 的表达式来分区 DataFrame,但表达式 <expr> 的类型是 <dataType>

# PARTITION_WITH_NESTED_COLUMN_IS_UNSUPPORTED

无效的分区:<cols> 缺失或在映射或数组中。

# PIPE_OPERATOR_AGGREGATE_UNSUPPORTED_CASE

带有聚合(使用 |> AGGREGATE)的 SQL 管道运算符语法不支持 <case>

# PIVOT_AFTER_GROUP_BY

GROUP BY 子句后的 PIVOT 子句。考虑将 GROUP BY 推送到子查询中。

# PIVOT_TYPE

按列数据类型 <type> 的值 '<value>' 进行透视。

# PURGE_PARTITION

分区清除。

# PURGE_TABLE

清除表。

# PYTHON_UDF_IN_ON_CLAUSE

<joinType> JOIN 的 ON 子句中的 Python UDF。如果是 INNER JOIN,请考虑重写为带有 WHERE 子句的 CROSS JOIN。

# QUERY_ONLY_CORRUPT_RECORD_COLUMN

当引用的列只包含内部损坏记录列(默认为 _corrupt_record)时,不允许查询原始 JSON/CSV/XML 文件。例如:spark.read.schema(schema).json(file).filter($"_corrupt_record".isNotNull).count()spark.read.schema(schema).json(file).select("_corrupt_record").show()。相反,您可以缓存或保存解析结果,然后发送相同的查询。例如,val df = spark.read.schema(schema).json(file).cache(),然后 df.filter($"_corrupt_record".isNotNull).count()

# REMOVE_NAMESPACE_COMMENT

从命名空间 <namespace> 中删除注释。

# REPLACE_NESTED_COLUMN

替换函数不支持嵌套列 <colName>

# SET_NAMESPACE_PROPERTY

<property> 是一个保留的命名空间属性,<msg>

# SET_OPERATION_ON_MAP_TYPE

调用集合操作(INTERSECT, EXCEPT 等)的 DataFrame 中不能有 MAP 类型列,但列 <colName> 的类型是 <dataType>

# SET_OPERATION_ON_VARIANT_TYPE

调用集合操作(INTERSECT, EXCEPT 等)的 DataFrame 中不能有 VARIANT 类型列,但列 <colName> 的类型是 <dataType>

# SET_PROPERTIES_AND_DBPROPERTIES

同时设置 PROPERTIES 和 DBPROPERTIES。

# SET_TABLE_PROPERTY

<property> 是一个保留的表属性,<msg>

# SET_VARIABLE_USING_SET

<variableName> 是一个 VARIABLE,不能使用 SET 语句更新。请改用 SET VARIABLE <variableName> = ...。

# SQL_SCRIPTING

SQL 脚本正在开发中,并非所有功能都受支持。SQL 脚本使用户能够编写过程性 SQL,包括控制流和错误处理。要启用现有功能,请将 <sqlScriptingEnabled> 设置为 true

# SQL_SCRIPTING_DROP_TEMPORARY_VARIABLE

SQL 脚本中不支持 DROP TEMPORARY VARIABLE。要绕过此限制,请使用 EXECUTE IMMEDIATE 'DROP TEMPORARY VARIABLE ...'

# SQL_SCRIPTING_WITH_POSITIONAL_PARAMETERS

SQL 脚本不支持位置参数。

# STATE_STORE_MULTIPLE_COLUMN_FAMILIES

不支持使用 <stateStoreProvider> 创建多个列族。

# STATE_STORE_REMOVING_COLUMN_FAMILIES

不支持使用 <stateStoreProvider> 删除列族。

# STATE_STORE_TTL

不支持带有 <stateStoreProvider> 的状态 TTL。请使用 RocksDBStateStoreProvider。

# TABLE_OPERATION

<tableName> 不支持 <operation>。请检查当前目录和命名空间以确保限定表名符合预期,并检查由 "spark.sql.catalog" 配置的目录实现。

# TEMPORARY_VIEW_WITH_SCHEMA_BINDING_MODE

不能使用 WITH SCHEMA 子句创建临时视图。当底层模式更改时重新创建临时视图,或使用持久化视图。

# TIME_TRAVEL

关系上的时间旅行:<relationId>

# TOO_MANY_TYPE_ARGUMENTS_FOR_UDF_CLASS

具有 <num> 类型参数的 UDF 类。

# TRANSFORM_DISTINCT_ALL

带有 DISTINCT/ALL 子句的 TRANSFORM。

# TRANSFORM_NON_HIVE

只有在 Hive 模式下才支持带有 SERDE 的 TRANSFORM。

# TRIM_COLLATION

排序规则中的 TRIM 指定符。

# UPDATE_COLUMN_NULLABILITY

更新 MySQL 和 MS SQL Server 的列可空性。

# WRITE_FOR_BINARY_SOURCE

为二进制文件数据源写入。

0A000 # UNSUPPORTED_JOIN_TYPE

不支持的连接类型 '<typ>'。支持的连接类型包括:<supported>

0A000 # UNSUPPORTED_PARTITION_TRANSFORM

不支持的分区转换:<transform>。支持的转换是 identitybucketclusterBy。请确保您的转换表达式使用其中之一。

0A000 # UNSUPPORTED_SAVE_MODE

不支持保存模式 <saveMode>,用于

# EXISTENT_PATH

已存在的路径。

# NON_EXISTENT_PATH

不存在的路径。

0A000 # UNSUPPORTED_SHOW_CREATE_TABLE

不支持 SHOW CREATE TABLE 命令。

# ON_DATA_SOURCE_TABLE_WITH_AS_SERDE

<tableName> 是 Spark 数据源表。请使用不带 AS SERDE 的 SHOW CREATE TABLE。

# ON_TEMPORARY_VIEW

此命令不支持临时视图 <tableName>

# ON_TRANSACTIONAL_HIVE_TABLE

无法针对事务性 Hive 表 <tableName> 执行命令。请使用 SHOW CREATE TABLE <tableName> AS SERDE 来显示 Hive DDL。

# WITH_UNSUPPORTED_FEATURE

无法针对由 Hive 创建并使用以下不支持功能 <unsupportedFeatures> 的表/视图 <tableName> 执行命令

# WITH_UNSUPPORTED_SERDE_CONFIGURATION

无法针对由 Hive 创建并使用以下不支持的 serde 配置 <configs> 的表 <tableName> 执行命令。请使用 SHOW CREATE TABLE <tableName> AS SERDE 来显示 Hive DDL。

0A000 # UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

单遍分析器无法处理此查询或命令,因为它尚不支持 <feature>

0A000 # UNSUPPORTED_SQL_UDF_USAGE

<nodeName> 中使用 SQL 函数 <functionName> 不受支持。

0A000 # UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

<outputMode> 输出模式不支持流式 DataFrames/DataSets 上的 <statefulOperator> 而不带水印。

0A000 # UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

不支持的子查询表达式

# ACCESSING_OUTER_QUERY_COLUMN_IS_NOT_ALLOWED

在此位置不允许访问外部查询列:<treeNode>

# AGGREGATE_FUNCTION_MIXED_OUTER_LOCAL_REFERENCES

在相关谓词中发现一个同时具有外部和本地引用的聚合函数,这不支持:<function>

# CORRELATED_COLUMN_IS_NOT_ALLOWED_IN_PREDICATE

谓词中不允许使用相关列:<treeNode>

# CORRELATED_COLUMN_NOT_FOUND

在子查询表达式主体中未找到外部查询的相关外部名称引用:<value>

# CORRELATED_REFERENCE

在 WHERE/HAVING 子句之外不支持引用外部查询的表达式:<sqlExprs>

# HIGHER_ORDER_FUNCTION

高阶函数中不支持子查询表达式。请从高阶函数中删除所有子查询表达式,然后重试查询。

# LATERAL_JOIN_CONDITION_NON_DETERMINISTIC

侧向连接条件不能是非确定性的:<condition>

# MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY

相关标量子查询必须聚合以返回最多一行。

# NON_CORRELATED_COLUMNS_IN_GROUP_BY

标量相关子查询中的 GROUP BY 子句不能包含非相关列:<value>

# NON_DETERMINISTIC_LATERAL_SUBQUERIES

当与产生多行的外部关系连接时,不支持非确定性侧向子查询:<treeNode>

# SCALAR_SUBQUERY_IN_VALUES

VALUES 子句中的标量子查询。

# UNSUPPORTED_CORRELATED_EXPRESSION_IN_JOIN_CONDITION

连接谓词中的相关子查询不能同时引用两个连接输入:<subqueryExpression>

# UNSUPPORTED_CORRELATED_REFERENCE_DATA_TYPE

相关列引用 '<expr>' 不能是 <dataType> 类型。

# UNSUPPORTED_CORRELATED_SCALAR_SUBQUERY

相关标量子查询只能用于筛选、聚合、投影和 UPDATE/MERGE/DELETE 命令:<treeNode>

# UNSUPPORTED_IN_EXISTS_SUBQUERY

IN/EXISTS 谓词子查询只能用于筛选、连接、聚合、窗口函数、投影和 UPDATE/MERGE/DELETE 命令:<treeNode>

# UNSUPPORTED_TABLE_ARGUMENT

函数中使用了不支持的表参数:<treeNode>

0A000 # UNSUPPORTED_TYPED_LITERAL

不支持 <unsupportedType> 类型的字面值。支持的类型有 <supportedTypes>

0AKD0 # CANNOT_RENAME_ACROSS_SCHEMA

不允许跨模式重命名 <type>

21000 # BOOLEAN_STATEMENT_WITH_EMPTY_ROW

布尔语句 <invalidStatement> 无效。预期单行,值为 BOOLEAN 类型,但得到空行。

21000 # ROW_SUBQUERY_TOO_MANY_ROWS

用作行的子查询返回了多于一行。

21000 # SCALAR_SUBQUERY_TOO_MANY_ROWS

用作表达式的子查询返回了多于一行。

21S01 # CREATE_VIEW_COLUMN_ARITY_MISMATCH

无法创建视图 <viewName>,原因是

# NOT_ENOUGH_DATA_COLUMNS

数据列不足:视图列:<viewColumns>。数据列:<dataColumns>

# TOO_MANY_DATA_COLUMNS

数据列过多:视图列:<viewColumns>。数据列:<dataColumns>

21S01 # INSERT_COLUMN_ARITY_MISMATCH

无法写入 <tableName>,原因是

# NOT_ENOUGH_DATA_COLUMNS

数据列不足:表列:<tableColumns>。数据列:<dataColumns>

# TOO_MANY_DATA_COLUMNS

数据列过多:表列:<tableColumns>。数据列:<dataColumns>

21S01 # INSERT_PARTITION_COLUMN_ARITY_MISMATCH

无法写入 '<tableName>',<reason>:表列:<tableColumns>。带有静态值的分区列:<staticPartCols>。数据列:<dataColumns>

22000 # HLL_UNION_DIFFERENT_LG_K

草图的 lgConfigK 值不同:<left><right>。将 allowDifferentLgConfigK 参数设置为 true,以便使用不同的 lgConfigK 值调用 <function>

22000 # MALFORMED_CHARACTER_CODING

执行 <function> 时使用 <charset> 发现无效值

22003 # ARITHMETIC_OVERFLOW

<message><alternative> 如果需要,将 <config> 设置为 "false" 以绕过此错误。

22003 # BINARY_ARITHMETIC_OVERFLOW

<value1> <symbol> <value2> 导致溢出。使用 <functionName> 忽略溢出问题并返回 NULL。

22003 # CAST_OVERFLOW

由于溢出,类型为 <sourceType> 的值 <value> 无法转换为 <targetType>。请使用 try_cast 容忍溢出并返回 NULL。

22003 # CAST_OVERFLOW_IN_TABLE_INSERT

由于溢出,无法将 <sourceType> 类型的值分配给 <targetType> 类型的列或变量 <columnName>。对输入值使用 try_cast 以容忍溢出并返回 NULL。

22003 # COLUMN_ORDINAL_OUT_OF_BOUNDS

列序号超出界限。表中列数为 <attributesLength>,但列序号为 <ordinal>。属性如下:<attributes>

22003 # DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

小数精度 <precision> 超过最大精度 <maxPrecision>

22003 # INCORRECT_RAMP_UP_RATE

每秒 <rowsPerSecond> 行的最大偏移量是 <maxSeconds>,但 'rampUpTimeSeconds' 是 <rampUpTimeSeconds>

22003 # INVALID_ARRAY_INDEX

索引 <indexValue> 超出范围。数组有 <arraySize> 个元素。使用 SQL 函数 get() 容忍访问无效索引处的元素并返回 NULL。

22003 # INVALID_ARRAY_INDEX_IN_ELEMENT_AT

索引 <indexValue> 超出范围。数组有 <arraySize> 个元素。使用 try_element_at 容忍访问无效索引处的元素并返回 NULL。

22003 # INVALID_BITMAP_POSITION

0 索引位图位置 <bitPosition> 超出界限。位图有 <bitmapNumBits> 位 (<bitmapNumBytes> 字节)。

22003 # INVALID_BOUNDARY

边界 <boundary> 无效:<invalidValue>

# END

预期值为 '0'、'<longMaxValue>'、'[<intMinValue>, <intMaxValue>]'。

# START

预期值为 '0'、'<longMinValue>'、'[<intMinValue>, <intMaxValue>]'。

22003 # INVALID_INDEX_OF_ZERO

索引 0 无效。索引应小于 0 或大于 0(第一个元素的索引为 1)。

22003 # INVALID_NUMERIC_LITERAL_RANGE

数字字面值 <rawStrippedQualifier> 超出 <typeName> 的有效范围,其最小值为 <minValue>,最大值为 <maxValue>。请相应调整值。

22003 # NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

<frequencyExpression> 中发现负值:<negativeValue>,但预期为正整数值。

22003 # NUMERIC_OUT_OF_SUPPORTED_RANGE

<value> 无法解释为数字,因为它有超过 38 位数字。

22003 # NUMERIC_VALUE_OUT_OF_RANGE
# WITHOUT_SUGGESTION

<originalValue> 四舍五入到 <roundedValue> 无法表示为 Decimal(<precision>, <scale>)。

# WITH_SUGGESTION

<value> 无法表示为 Decimal(<precision>, <scale>)。如果需要,将 <config> 设置为 "false" 以绕过此错误并返回 NULL。

22003 # SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

LIMIT 子句和 OFFSET 子句的总和不能大于最大 32 位整数值(2,147,483,647),但发现 limit = <limit>,offset = <offset>

22004 # COMPARATOR_RETURNS_NULL

比较器对 <firstValue><secondValue> 的比较返回 NULL。它应该返回正整数表示“大于”,0 表示“等于”,负整数表示“小于”。要恢复到已弃用的行为,即 NULL 被视为 0(相等),您必须将 "spark.sql.legacy.allowNullComparisonResultInArraySort" 设置为 "true"。

22004 # NULL_QUERY_STRING_EXECUTE_IMMEDIATE

EXECUTE IMMEDIATE 需要一个非空变量作为查询字符串,但提供的变量 <varName> 为空。

22004 # TUPLE_IS_EMPTY

由于 Scala 对元组的支持有限,不支持空元组。

22006 # CANNOT_PARSE_INTERVAL

无法解析 <intervalString>。请确保提供的值采用有效的间隔定义格式。您可以查阅文档以获取正确的格式。如果问题仍然存在,请再次检查输入值是否不为空或空,然后重试。

22006 # INVALID_INTERVAL_FORMAT

解析 '<input>' 到间隔时出错。请确保提供的值采用有效的间隔定义格式。您可以查阅文档以获取正确的格式。

# ARITHMETIC_EXCEPTION

解析 '<input>' 时捕获到算术异常。

# DAY_TIME_PARSING

解析间隔日期时间字符串时出错:<msg>

# INPUT_IS_EMPTY

间隔字符串不能为空。

# INPUT_IS_NULL

间隔字符串不能为 null。

# INTERVAL_PARSING

解析间隔 <interval> 字符串时出错。

# INVALID_FRACTION

<unit> 不能有小数部分。

# INVALID_PRECISION

间隔只支持纳秒精度,<value> 超出范围。

# INVALID_PREFIX

无效的间隔前缀 <prefix>

# INVALID_UNIT

无效的单位 <unit>

# INVALID_VALUE

无效值 <value>

# MISSING_NUMBER

<word> 后预期一个数字,但到达行尾。

# MISSING_UNIT

<word> 后预期一个单位名称,但到达行尾。

# SECOND_NANO_FORMAT

间隔字符串与 ss.nnnnnnnnn 的秒-纳秒格式不匹配。

# TIMEZONE_INTERVAL_OUT_OF_RANGE

间隔值必须在 [-18, +18] 小时(精确到秒)的范围内。

# UNKNOWN_PARSING_ERROR

解析 <word> 时发生未知错误。

# UNMATCHED_FORMAT_STRING

<input> 转换为 <typeName> 时,间隔字符串不匹配 <supportedFormat><intervalStr> 格式。

# UNMATCHED_FORMAT_STRING_WITH_NOTICE

<input> 转换为 <typeName> 时,间隔字符串不匹配 <supportedFormat><intervalStr> 格式。将 "spark.sql.legacy.fromDayTimeString.enabled" 设置为 "true" 可恢复 Spark 3.0 之前的行为。

# UNRECOGNIZED_NUMBER

无法识别的数字 <number>

# UNSUPPORTED_FROM_TO_EXPRESSION

不支持 (interval '<input>' <from> to <to>) 表达式。

22006 # INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

无法将间隔添加到日期,因为其微秒部分不为 0。要解决此问题,请将输入日期转换为时间戳,该时间戳支持添加微秒不为零的间隔。

22007 # CANNOT_PARSE_TIMESTAMP

<message>。使用 <func> 容忍无效输入字符串并返回 NULL。

22007 # INVALID_DATETIME_PATTERN

无法识别的日期时间模式:<pattern>

# ILLEGAL_CHARACTER

日期时间模式中发现非法模式字符:<c>。请提供合法字符。

# LENGTH

日期时间模式中的字母过多:<pattern>。请缩短模式长度。

# SECONDS_FRACTION

无法检测可变长度的秒小数模式。请确保模式包含 'S',且不包含非法字符。

22008 # DATETIME_OVERFLOW

日期时间操作溢出:<operation>

22009 # ILLEGAL_DAY_OF_WEEK

星期几的非法输入:<string>

22009 # INVALID_TIMEZONE

时区:<timeZone> 无效。时区必须是基于区域的时区 ID 或时区偏移量。区域 ID 必须是 'area/city' 形式,例如 'America/Los_Angeles'。时区偏移量必须是 '(+|-)HH'、'(+|-)HH:mm' 或 '(+|-)HH:mm:ss' 格式,例如 '-08'、'+01:00' 或 '-13:33:33',并且必须在 -18:00 到 +18:00 的范围内。'Z' 和 'UTC' 被接受为 '+00:00' 的同义词。

2200E # NULL_MAP_KEY

不能使用 null 作为映射键。

22012 # DIVIDE_BY_ZERO

除以零。使用 try_divide 容忍除数为 0 并返回 NULL。如果需要,将 <config> 设置为 "false" 以绕过此错误。

22012 # INTERVAL_DIVIDED_BY_ZERO

除以零。使用 try_divide 容忍除数为 0 并返回 NULL。

22015 # INTERVAL_ARITHMETIC_OVERFLOW

对间隔进行操作时发生整数溢出。

# WITHOUT_SUGGESTION

尝试为间隔参数设计适当的值。

# WITH_SUGGESTION

使用 <functionName> 容忍溢出并返回 NULL。

22018 # CANNOT_PARSE_DECIMAL

无法解析小数。请确保输入是一个有效的数字,带可选的小数点或逗号分隔符。

22018 # CANNOT_PARSE_PROTOBUF_DESCRIPTOR

解析描述符字节到 Protobuf FileDescriptorSet 时出错。

22018 # CAST_INVALID_INPUT

类型为 <sourceType> 的值 <expression> 由于格式错误无法转换为 <targetType>。请根据语法更正该值,或更改其目标类型。使用 try_cast 容忍格式错误的输入并返回 NULL。

22018 # CONVERSION_INVALID_INPUT

<str> (<fmt>) 由于格式错误无法转换为 <targetType>。请根据语法更正该值,或更改其格式。使用 <suggestion> 容忍格式错误的输入并返回 NULL。

22018 # FAILED_PARSE_STRUCT_TYPE

解析结构体失败:<raw>

2201E # STRUCT_ARRAY_LENGTH_MISMATCH

输入行不具有模式所需的预期值数量。需要 <expected> 个字段,但提供了 <actual> 个值。

22022 # INVALID_CONF_VALUE

配置 "<confName>" 中的值 '<confValue>' 无效。

# TIME_ZONE

无法解析给定的时区。

22023 # DATETIME_FIELD_OUT_OF_BOUNDS

<rangeMessage>。如果需要,将 <ansiConfig> 设置为 "false" 以绕过此错误。

22023 # INVALID_FRACTION_OF_SECOND

秒的有效范围是 [0, 60](包括),但提供的值是 <secAndMicros>。为避免此错误,请使用 try_make_timestamp,它在错误时返回 NULL。如果您不想使用此函数的会话默认时间戳版本,请使用 try_make_timestamp_ntztry_make_timestamp_ltz

22023 # INVALID_JSON_RECORD_TYPE

<failFastMode> 模式下推断公共模式时检测到无效的 JSON 记录类型。预期为 STRUCT 类型,但发现 <invalidType>

22023 # INVALID_PARAMETER_VALUE

<functionName> 中参数 <parameter> 的值无效

# AES_CRYPTO_ERROR

详细消息:<detailMessage>

# AES_IV_LENGTH

支持 16 字节 CBC IV 和 12 字节 GCM IV,但 <mode> 得到 <actualLength> 字节。

# AES_KEY_LENGTH

预期二进制值为 16、24 或 32 字节,但得到 <actualLength> 字节。

# BINARY_FORMAT

预期二进制格式为 'base64'、'hex'、'utf-8' 之一,但得到 <invalidFormat>

# BIT_POSITION_RANGE

预期整数值在 [0, <upper>) 之间,但得到 <invalidValue>

# BOOLEAN

预期布尔字面值,但得到 <invalidValue>

# CHARSET

预期 <charsets> 之一,但得到 <charset>

# DATETIME_UNIT

预期不带引号的单位:YEAR, QUARTER, MONTH, WEEK, DAY, DAYOFYEAR, HOUR, MINUTE, SECOND, MILLISECOND, MICROSECOND,但得到字符串字面值 <invalidValue>

# DOUBLE

预期双精度字面值,但得到 <invalidValue>

# DTYPE

不支持的 dtype:<invalidValue>。有效值:float64, float32。

# EXTENSION

无效扩展名:<invalidValue>。扩展名限制为正好 3 个字母(例如 csv、tsv 等)

# INTEGER

预期整数文字,但得到 <invalidValue>

# LENGTH

预期 length 大于或等于 0,但得到 <length>

# LONG

预期长整数文字,但得到 <invalidValue>

# NULL

预期非 NULL 值。

# PATTERN

<值>.

# REGEX_GROUP_INDEX

预期组索引在 0 到 <groupCount> 之间,但得到 <groupIndex>

# START

预期 start 为正值或负值,但得到 0。

# STRING

预期字符串文字,但得到 <invalidValue>

# ZERO_INDEX

预期 %1$、%2$ 等,但得到 %0$。

22023 # INVALID_REGEXP_REPLACE

无法对 source = "<source>", pattern = "<pattern>", replacement = "<replacement>" 和 position = <position> 执行 regexp_replace。

22023 # INVALID_VARIANT_CAST

variant 值 <value> 无法转换为 <dataType>。请改用 try_variant_get

22023 # INVALID_VARIANT_FROM_PARQUET

无效的变体。

# MISSING_FIELD

缺少 <field> 字段。

# NULLABLE_OR_NOT_BINARY_FIELD

<field> 必须是非空二进制。

# WRONG_NUM_FIELDS

Variant 列必须包含正好两个字段。

22023 # INVALID_VARIANT_GET_PATH

路径 <path><functionName> 中不是有效的变体提取路径。有效的路径应该以 $ 开头,后跟零个或多个段,如 [123].name['name']["name"]

22023 # INVALID_VARIANT_SHREDDING_SCHEMA

模式 <schema> 不是有效的变体切片模式。

22023 # MALFORMED_RECORD_IN_PARSING

在记录解析中检测到格式错误的记录:<badRecord>。解析模式:<failFastMode>。要将格式错误的记录处理为 null 结果,请尝试将选项 'mode' 设置为 'PERMISSIVE'。

# CANNOT_PARSE_JSON_ARRAYS_AS_STRUCTS

禁止将 JSON 数组解析为结构体。

# CANNOT_PARSE_STRING_AS_DATATYPE

无法将字段 <fieldName> 的值 <fieldValue> 从输入类型 <inputType> 解析为目标 Spark 数据类型 <targetType>

# WITHOUT_SUGGESTION
22023 # MALFORMED_VARIANT

Variant 二进制文件格式错误。请检查数据源是否有效。

22023 # ROW_VALUE_IS_NULL

在索引 <index> 处发现行值为 NULL,预期为非 NULL 值。

22023 # RULE_ID_NOT_FOUND

未找到规则名称 "<ruleName>" 的 ID。如果您正在添加新规则,请修改 RuleIdCollection.scala。

22023 # SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

函数 <functionName> 的第二个参数必须是整数。

22023 # TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

评估表函数 <functionName> 失败,因为其表元数据为 <requestedMetadata>,但函数调用为 <invalidFunctionCallProperty>

22023 # TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

评估表函数 <functionName> 失败,因为其表元数据无效;<reason>

22023 # UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

在变体值中发现 ID 为 <id> 的未知原始类型。

22023 # VARIANT_CONSTRUCTOR_SIZE_LIMIT

无法构造大于 16 MiB 的变体。变体值的最大允许大小为 16 MiB。

22023 # VARIANT_DUPLICATE_KEY

因重复对象键 <key> 而无法构建变体。

22023 # VARIANT_SIZE_LIMIT

无法在 <functionName> 中构建大于 <sizeLimit> 的变体。请避免为此表达式输入过大的字符串(例如,添加函数调用以检查表达式大小,如果过大则先将其转换为 NULL)。

22024 # NULL_DATA_SOURCE_OPTION

数据源读/写选项 <option> 不能为 null 值。

22029 # INVALID_UTF8_STRING

在字符串中发现无效的 UTF8 字节序列:<str>

22032 # INVALID_JSON_ROOT_FIELD

无法将 JSON 根字段转换为目标 Spark 类型。

22032 # INVALID_JSON_SCHEMA_MAP_TYPE

输入模式 <jsonSchema> 只能将 STRING 作为 MAP 的键类型。

2203G # CANNOT_PARSE_JSON_FIELD

无法将 JSON 令牌类型 <jsonType> 的字段名称 <fieldName> 和值 <fieldValue> 解析为目标 Spark 数据类型 <dataType>

2203G # FAILED_ROW_TO_JSON

无法将类 <class> 的行值 <value> 以 JSON 格式转换为目标 SQL 类型 <sqlType>

2203G # INVALID_JSON_DATA_TYPE

无法将 JSON 字符串 '<invalidType>' 转换为数据类型。请输入有效的数据类型。

2203G # INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

排序规则只能应用于字符串类型,但 JSON 数据类型为 <jsonType>

22546 # CANNOT_DECODE_URL

提供的 URL 无法解码:<url>。请确保 URL 格式正确,然后重试。

22546 # HLL_INVALID_INPUT_SKETCH_BUFFER

<function> 的调用无效;仅支持有效的 HLL 草图缓冲区作为输入(例如由 hll_sketch_agg 函数生成的缓冲区)。

22546 # HLL_INVALID_LG_K

<function> 的调用无效;lgConfigK 值必须在 <min><max> 之间(包含):<value>

22546 # INVALID_BOOLEAN_STATEMENT

条件中预期为布尔语句,但找到了 <invalidStatement>

22KD3 # AVRO_INCOMPATIBLE_READ_TYPE

无法将 Avro <avroPath> 转换为 SQL <sqlPath>,因为原始编码数据类型为 <avroType>,但您尝试将该字段读取为 <sqlType>,这将导致不正确的结果。要允许读取此字段,请启用 SQL 配置:"spark.sql.legacy.avro.allowIncompatibleSchema"。

22KD3 # AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

无法调用 SQL 函数 <functionName>,因为 Avro 数据源未加载。请通过命令行使用 --packages 参数加载 'spark-avro' 包,然后重新启动您的作业或会话,并再次尝试您的查询或命令。

22KD3 # CANNOT_USE_KRYO

无法加载 Kryo 序列化编解码器。Kryo 序列化不能在 Spark Connect 客户端中使用。请使用 Java 序列化、提供自定义编解码器或改用 Spark Classic。

22KD3 # PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

无法调用 SQL 函数 <functionName>,因为 Protobuf 数据源未加载。请通过命令行使用 --packages 参数加载 'spark-protobuf' 包,然后重新启动您的作业或会话,并再次尝试您的查询或命令。

22P02 # INVALID_URL

URL 无效:<url>。请使用 try_parse_url 来容忍无效 URL 并返回 NULL。

22P03 # INVALID_BYTE_STRING

预期格式为 ByteString,但为 <unsupported> (<class>)。

23505 # DUPLICATED_MAP_KEY

发现重复的映射键 <key>,请检查输入数据。如果要删除重复的键,可以将 <mapKeyDedupPolicy> 设置为 "LAST_WIN",以便最后插入的键优先。

23505 # DUPLICATE_KEY

发现重复键 <keyColumn>

23K01 # MERGE_CARDINALITY_VIOLATION

MERGE 语句的 ON 搜索条件将目标表中的单行与源表中的多行匹配。这可能导致目标行被更新或删除操作多次操作,这是不允许的。

2BP01 # SCHEMA_NOT_EMPTY

无法删除模式 <schemaName>,因为它包含对象。请使用 DROP SCHEMA ... CASCADE 来删除该模式及其所有对象。

38000 # CLASS_NOT_OVERRIDE_EXPECTED_METHOD

<className> 必须重写 <method1><method2>

38000 # FAILED_FUNCTION_CALL

准备函数 <funcName> 调用失败。请仔细检查函数的参数。

38000 # FAILED_TO_LOAD_ROUTINE

无法加载例程 <routineName>

38000 # INVALID_UDF_IMPLEMENTATION

函数 <funcName> 未实现 ScalarFunction 或 AggregateFunction。

38000 # NO_UDF_INTERFACE

UDF 类 <className> 未实现任何 UDF 接口。

38000 # PYTHON_DATA_SOURCE_ERROR

无法 <action> Python 数据源 <type><msg>

38000 # PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

Python 流式数据源执行 <action> 失败:<msg>

38000 # TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

分析 Python 用户定义表函数失败:<msg>

39000 # FAILED_EXECUTE_UDF

用户定义函数 (<functionName>: (<signature>) => <result>) 失败,原因:<reason>

39000 # FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

flatMapGroupsWithState 中用户提供的函数发生错误。原因:<reason>

39000 # FOREACH_BATCH_USER_FUNCTION_ERROR

foreach 批处理接收器中用户提供的函数发生错误。原因:<reason>

39000 # FOREACH_USER_FUNCTION_ERROR

foreach 接收器中用户提供的函数发生错误。原因:<reason>

3F000 # MISSING_DATABASE_FOR_V1_SESSION_CATALOG

v1 会话目录中未指定数据库名称。与 v1 目录交互时,请确保提供有效的数据库名称。

40000 # CONCURRENT_STREAM_LOG_UPDATE

并发更新日志。检测到 <batchId> 的多个流作业。请确保在给定检查点位置上一次只有一个流作业运行。

42000 # AMBIGUOUS_REFERENCE_TO_FIELDS

对字段 <field> 的引用不明确。它在模式中出现了 <count> 次。

42000 # CANNOT_REMOVE_RESERVED_PROPERTY

无法删除保留属性:<property>

42000 # CLUSTERING_NOT_SUPPORTED

'<operation>' 不支持集群。

42000 # INVALID_COLUMN_OR_FIELD_DATA_TYPE

列或字段 <name> 的类型为 <type>,但要求为 <expectedType>

42000 # INVALID_EXTRACT_BASE_FIELD_TYPE

无法从 <base> 中提取值。需要复杂类型 [STRUCT, ARRAY, MAP],但得到了 <other>

42000 # INVALID_EXTRACT_FIELD_TYPE

字段名应该是非空字符串文字,但它是 <extraction>

42000 # INVALID_FIELD_NAME

字段名 <fieldName> 无效:<path> 不是结构体。

42000 # INVALID_INLINE_TABLE

无效的内联表。

# CANNOT_EVALUATE_EXPRESSION_IN_INLINE_TABLE

无法在内联表定义中评估表达式 <expr>

# FAILED_SQL_EXPRESSION_EVALUATION

无法评估 SQL 表达式 <sqlExpr>。请检查您的语法并确保所有必需的表和列都可用。

# INCOMPATIBLE_TYPES_IN_INLINE_TABLE

在内联表的列 <colName> 中发现不兼容的类型。

# NUM_COLUMNS_MISMATCH

内联表预期有 <expectedNumCols> 列,但在行 <rowIndex> 中找到了 <actualNumCols> 列。

42000 # INVALID_RESET_COMMAND_FORMAT

预期格式为 'RESET' 或 'RESET key'。如果要在键中包含特殊字符,请使用引号,例如 RESET `key`。

42000 # INVALID_SAVE_MODE

指定的保存模式 <mode> 无效。有效的保存模式包括 "append"、"overwrite"、"ignore"、"error"、"errorifexists" 和 "default"。

42000 # INVALID_SET_SYNTAX

预期格式为 'SET'、'SET key' 或 'SET key=value'。如果要在键中包含特殊字符,或在值中包含分号,请使用反引号,例如 SET `key`=`value`。

42000 # INVALID_SQL_SYNTAX

无效的 SQL 语法

# ANALYZE_TABLE_UNEXPECTED_NOSCAN

ANALYZE TABLE(S) ... COMPUTE STATISTICS ... <ctx> 必须是 NOSCAN 或为空。

# CREATE_FUNC_WITH_COLUMN_CONSTRAINTS

不允许对参数使用约束创建函数 (CREATE FUNCTION)。

# CREATE_FUNC_WITH_GENERATED_COLUMNS_AS_PARAMETERS

不允许对参数使用生成列创建函数 (CREATE FUNCTION)。

# CREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE

无法同时指定 IF NOT EXISTS 和 REPLACE 创建例程。

# CREATE_TEMP_FUNC_WITH_DATABASE

不允许指定数据库 (<database>) 创建临时函数 (CREATE TEMPORARY FUNCTION)。

# CREATE_TEMP_FUNC_WITH_IF_NOT_EXISTS

不允许使用 IF NOT EXISTS 创建临时函数 (CREATE TEMPORARY FUNCTION)。

# EMPTY_PARTITION_VALUE

分区键 <partKey> 必须设置值。

# FUNCTION_WITH_UNSUPPORTED_SYNTAX

函数 <prettyName> 不支持 <syntax>

# INVALID_COLUMN_REFERENCE

转换 <transform> 预期为列引用:<expr>

# INVALID_TABLE_FUNCTION_IDENTIFIER_ARGUMENT_MISSING_PARENTHESES

语法错误:对表值函数的调用无效,因为提供的 TABLE 参数 <argumentName> 周围缺少括号;请用括号将其括起来,然后重试。

# INVALID_TABLE_VALUED_FUNC_NAME

表值函数不能指定数据库名:<funcName>

# INVALID_WINDOW_REFERENCE

窗口引用 <windowName> 不是窗口规范。

# LATERAL_WITHOUT_SUBQUERY_OR_TABLE_VALUED_FUNC

LATERAL 只能与子查询和表值函数一起使用。

# MULTI_PART_NAME

不允许使用多部分名称 (<name>) 的 <statement>

# OPTION_IS_INVALID

选项或属性键 <key> 无效;仅支持 <supported>

# REPETITIVE_WINDOW_DEFINITION

窗口 <windowName> 的定义是重复的。

# SHOW_FUNCTIONS_INVALID_PATTERN

SHOW FUNCTIONS 中的模式无效:<pattern>。它必须是 "STRING" 文字。

# SHOW_FUNCTIONS_INVALID_SCOPE

不支持 SHOW <scope> FUNCTIONS。

# TRANSFORM_WRONG_NUM_ARGS

转换 <transform> 需要 <expectedNum> 个参数,但实际数量为 <actualNum>

# UNRESOLVED_WINDOW_REFERENCE

无法解析窗口引用 <windowName>

# UNSUPPORTED_FUNC_NAME

不支持的函数名 <funcName>

# UNSUPPORTED_SQL_STATEMENT

不支持的 SQL 语句:<sqlText>

# VARIABLE_TYPE_OR_DEFAULT_REQUIRED

SQL 变量的定义需要数据类型或 DEFAULT 子句。例如,使用 DECLARE name STRINGDECLARE name = 'SQL' 而不是 DECLARE name

42000 # INVALID_USAGE_OF_STAR_OR_REGEX

<prettyName> 中使用 <elem> 无效。

42000 # INVALID_WRITE_DISTRIBUTION

请求的写入分布无效。

# PARTITION_NUM_AND_SIZE

分区号和建议分区大小不能同时指定。

# PARTITION_NUM_WITH_UNSPECIFIED_DISTRIBUTION

未指定分布时不能指定分区数。

# PARTITION_SIZE_WITH_UNSPECIFIED_DISTRIBUTION

未指定分布时不能指定建议分区大小。

42000 # MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

<clause1><clause2> 不能在同一个使用 '|>' 的 SQL 管道运算符中同时存在。请将多个结果子句分离到不同的管道运算符中,然后再次尝试查询。

42000 # NON_PARTITION_COLUMN

PARTITION 子句不能包含非分区列:<columnName>

42000 # NOT_NULL_ASSERT_VIOLATION

非空字段中出现 NULL 值:<walkedTypePath> 如果模式是从 Scala 元组/case 类或 Java bean 推断出来的,请尝试使用 scala.Option[_] 或其他可空类型(例如 java.lang.Integer 而不是 int/scala.Int)。

42000 # NOT_NULL_CONSTRAINT_VIOLATION

此处不允许分配 NULL。

# ARRAY_ELEMENT

数组 <columnPath> 定义为仅包含非 NULL 元素。

# MAP_VALUE

映射 <columnPath> 定义为仅包含非 NULL 值。

42000 # NO_HANDLER_FOR_UDAF

UDAF '<functionName>' 没有处理器。请改用 sparkSession.udf.register(...)。

42000 # NULLABLE_COLUMN_OR_FIELD

列或字段 <name> 是可空的,但要求为非空。

42000 # NULLABLE_ROW_ID_ATTRIBUTES

行 ID 属性不能为可空:<nullableRowIdAttrs>

42000 # PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

模式 <schema> 中未找到分区列 <column>。请提供现有列进行分区。

42000 # UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

JDBC 目录中对表 <tableName> 不支持表更改 <change>。支持的更改包括:AddColumn、RenameColumn、DeleteColumn、UpdateColumnType、UpdateColumnNullability。

42001 # INVALID_AGNOSTIC_ENCODER

找到一个无效的不可知编码器。预期为 AgnosticEncoder 实例,但得到 <encoderType>。有关更多信息,请参阅 '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'。

42001 # INVALID_EXPRESSION_ENCODER

找到一个无效的表达式编码器。预期为 ExpressionEncoder 实例,但得到 <encoderType>。有关更多信息,请参阅 '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'。

42601 # COLUMN_ALIASES_NOT_ALLOWED

<op> 中不允许使用列别名。

42601 # IDENTIFIER_TOO_MANY_NAME_PARTS

<identifier> 不是有效的标识符,因为它包含超过 2 个名称部分。

42601 # IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

重复的 IDENTITY 列序列生成器选项:<sequenceGeneratorOption>

42601 # ILLEGAL_STATE_STORE_VALUE

提供给状态存储的值非法

# EMPTY_LIST_VALUE

无法将空列表值写入 StateName <stateName> 的状态存储。

# NULL_VALUE

无法将 null 值写入 StateName <stateName> 的状态存储。

42601 # INVALID_ATTRIBUTE_NAME_SYNTAX

属性名中存在语法错误:<name>。请检查反引号是否成对出现,带引号的字符串是否为完整的名称部分,并且仅在带引号的名称部分内部使用反引号。

42601 # INVALID_BUCKET_COLUMN_DATA_TYPE

不能将 <type> 用于桶列。桶化不支持排序数据类型。

42601 # INVALID_EXTRACT_FIELD

无法从 <expr> 中提取 <field>

42601 # INVALID_FORMAT

格式无效:<format>

# CONT_THOUSANDS_SEPS

数字格式中的千位分隔符(, 或 G)之间必须有数字。

# CUR_MUST_BEFORE_DEC

数字格式中的货币符号必须出现在任何小数点之前。

# CUR_MUST_BEFORE_DIGIT

数字格式中的货币符号必须出现在数字之前。

# EMPTY

数字格式字符串不能为空。

# ESC_AT_THE_END

转义字符不允许在末尾。

# ESC_IN_THE_MIDDLE

转义字符不允许在 <char> 之前。

# MISMATCH_INPUT

输入 <inputType> <input> 与格式不匹配。

# THOUSANDS_SEPS_MUST_BEFORE_DEC

数字格式中的千位分隔符(, 或 G)不能出现在小数点之后。

# UNEXPECTED_TOKEN

在格式字符串中发现意外的 <token>;格式字符串的结构必须匹配:[MI|S] [$] [0|9|G|,]* [.|D] [0|9]* [$] [PR|MI|S]

# WRONG_NUM_DIGIT

格式字符串至少需要一位数字。

# WRONG_NUM_TOKEN

数字格式中最多允许一个 <token>

42601 # INVALID_PARTITION_OPERATION

分区命令无效。

# PARTITION_MANAGEMENT_IS_UNSUPPORTED

<name> 不支持分区管理。

# PARTITION_SCHEMA_IS_EMPTY

<name> 未分区。

42601 # INVALID_STATEMENT_OR_CLAUSE

语句或子句:<operation> 无效。

42601 # INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

无法为 <aggFunc> 指定 ORDER BY 或窗口帧。

42601 # LOCAL_MUST_WITH_SCHEMA_FILE

LOCAL 必须与 file 的模式一起使用,但得到:<actualSchema>

42601 # MERGE_WITHOUT_WHEN

MERGE 语句中必须至少有一个 WHEN 子句。

42601 # NOT_ALLOWED_IN_FROM

不允许在 FROM 子句中

# LATERAL_WITH_PIVOT

LATERAL 和 PIVOT。

# LATERAL_WITH_UNPIVOT

LATERAL 和 UNPIVOT。

# UNPIVOT_WITH_PIVOT

UNPIVOT 和 PIVOT。

42601 # NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

管道 WHERE 子句中不允许

# WINDOW_CLAUSE

WINDOW 子句。

42601 # NOT_A_CONSTANT_STRING

用于例程或子句 <name> 的表达式 <expr> 必须是非空常量字符串。

# NOT_CONSTANT

要被视为常量,表达式不能依赖于任何列、包含子查询或调用非确定性函数(如 rand())。

# NULL

表达式评估为 NULL。

# WRONG_TYPE

表达式的数据类型为 <dataType>

42601 # NOT_UNRESOLVED_ENCODER

预期为未解析编码器,但找到了 <attr>

42601 # PARSE_MODE_UNSUPPORTED

函数 <funcName> 不支持 <mode> 模式。可接受的模式是 PERMISSIVE 和 FAILFAST。

42601 # PARSE_SYNTAX_ERROR

<error>``<hint> 处或附近有语法错误。

42601 # REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

PARTITION 子句中不允许引用 DEFAULT 列值。

42601 # SORT_BY_WITHOUT_BUCKETING

sortBy 必须与 bucketBy 一起使用。

42601 # SPECIFY_BUCKETING_IS_NOT_ALLOWED

不带显式列列表的 CREATE TABLE 无法指定分桶信息。请使用带有显式列列表的形式并指定分桶信息。或者,通过省略该子句来允许推断分桶信息。

42601 # SPECIFY_PARTITION_IS_NOT_ALLOWED

不带显式列列表的 CREATE TABLE 无法指定 PARTITIONED BY。请使用带有显式列列表的形式并指定 PARTITIONED BY。或者,通过省略 PARTITION BY 子句来允许推断分区。

42601 # STDS_REQUIRED_OPTION_UNSPECIFIED

必须指定 '<optionName>'。

42601 # SYNTAX_DISCONTINUED

在此上下文中,子句或关键字 <clause> 的支持已停止。

# BANG_EQUALS_NOT

关键字 '!' 仅作为前缀运算符 'NOT' 的别名受支持。对于中缀子句(例如 NOT LIKENOT INNOT BETWEEN 等),请改用 'NOT' 关键字。要重新启用 '!' 关键字,请将 "spark.sql.legacy.bangEqualsNot" 设置为 "true"。

42601 # TRAILING_COMMA_IN_SELECT

在 SELECT 子句中检测到尾随逗号。请在 FROM 子句之前删除尾随逗号。

42601 # UNCLOSED_BRACKETED_COMMENT

发现未闭合的括号注释。请在注释末尾添加 */。

42601 # USER_DEFINED_FUNCTIONS

用户定义函数无效

# CANNOT_CONTAIN_COMPLEX_FUNCTIONS

SQL 标量函数不能包含聚合/窗口/生成函数:<queryText>

# CANNOT_REPLACE_NON_SQL_UDF_WITH_SQL_UDF

无法用 SQL 函数替换非 SQL 函数 <name>

# NOT_A_VALID_DEFAULT_EXPRESSION

<functionName>.<parameterName> 的 DEFAULT 表达式不受支持,因为它包含子查询。

# NOT_A_VALID_DEFAULT_PARAMETER_POSITION

在例程 <functionName> 中,带有 DEFAULT 的参数 <parameterName> 后面不能是未带 DEFAULT 的参数 <nextParameterName>

# NOT_NULL_ON_FUNCTION_PARAMETERS

无法在函数参数上指定 NOT NULL:<input>

# RETURN_COLUMN_COUNT_MISMATCH

RETURN 子句生成的列数(数量:<outputSize>)与 <name> 的 RETURNS 子句指定的列名数量(数量:<returnParamSize>)不匹配。

# ROUTINE_PROPERTY_TOO_LARGE

无法将用户定义例程 <name> 转换为目录函数:例程属性过大。

# SQL_TABLE_UDF_BODY_MUST_BE_A_QUERY

SQL 表函数 <name> 的主体必须是查询。

# SQL_TABLE_UDF_MISSING_COLUMN_NAMES

CREATE FUNCTION 语句中为 <functionName> 使用 RETURNS TABLE 子句返回的关系缺少一个或多个输出列的显式名称;请重写函数主体以提供显式列名,或将列名添加到 RETURNS TABLE 子句,然后重新运行命令。

42601 # WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

窗口函数 <funcName> 需要 OVER 子句。

42601 # WRITE_STREAM_NOT_ALLOWED

writeStream 只能在流式 Dataset/DataFrame 上调用。

42602 # CIRCULAR_CLASS_REFERENCE

类中不能有循环引用,但发现了类 <t> 的循环引用。

42602 # DUPLICATED_CTE_NAMES

CTE 定义不能有重复名称:<duplicateNames>

42602 # INVALID_DELIMITER_VALUE

分隔符值无效。

# DELIMITER_LONGER_THAN_EXPECTED

分隔符不能超过一个字符:<str>

# EMPTY_STRING

分隔符不能是空字符串。

# NULL_VALUE

分隔符不能为 null。

# SINGLE_BACKSLASH

禁止使用单个反斜杠。它作为转义序列的开头具有特殊含义。要获取反斜杠字符,请传入一个带有两个反斜杠的字符串作为分隔符。

# UNSUPPORTED_SPECIAL_CHARACTER

分隔符不支持的特殊字符:<str>

42602 # INVALID_IDENTIFIER

未加引号的标识符 <ident> 无效,必须用反引号括起来:<ident>。未加引号的标识符只能包含 ASCII 字母('a' - 'z'、'A' - 'Z')、数字('0' - '9')和下划线('_')。未加引号的标识符也不能以数字开头。不同的数据源和元数据存储可能对有效标识符施加额外的限制。

42602 # INVALID_PROPERTY_KEY

<key> 是无效的属性键,请使用引号,例如 SET `<key>`=`<value>`。

42602 # INVALID_PROPERTY_VALUE

<value> 是无效的属性值,请使用引号,例如 SET `<key>`=`<value>`

42602 # INVALID_SCHEMA_OR_RELATION_NAME

<name> 对于表/模式不是有效的名称。有效名称只能包含字母字符、数字和 _。

42604 # AS_OF_JOIN

无效的 as-of join。

# TOLERANCE_IS_NON_NEGATIVE

输入参数 tolerance 必须是非负数。

# TOLERANCE_IS_UNFOLDABLE

输入参数 tolerance 必须是常量。

# UNSUPPORTED_DIRECTION

不支持的 as-of join 方向 '<direction>'。支持的 as-of join 方向包括:<supported>

42604 # EMPTY_JSON_FIELD_VALUE

无法解析数据类型 <dataType> 的空字符串。

42604 # INVALID_ESC

发现无效的转义字符串:<invalidEscape>。转义字符串必须只包含一个字符。

42604 # INVALID_ESCAPE_CHAR

EscapeChar 应该是一个长度为一的字符串文字,但得到 <sqlExpr>

42604 # INVALID_TYPED_LITERAL

类型化文字 <valueType> 的值无效:<value>

42605 # WRONG_NUM_ARGS

<functionName> 需要 <expectedNum> 个参数,但实际数量为 <actualNum>

# WITHOUT_SUGGESTION

请参阅 '<docroot>/sql-ref-functions.html' 以获取修复方法。

# WITH_SUGGESTION

如果您必须使用 <legacyNum> 参数调用此函数,请将旧版配置 <legacyConfKey> 设置为 <legacyConfValue>

42607 # NESTED_AGGREGATE_FUNCTION

不允许在另一个聚合函数的参数中使用聚合函数。请在子查询中使用内部聚合函数。

42608 # DEFAULT_PLACEMENT_INVALID

MERGE、INSERT、UPDATE 或 SET VARIABLE 命令中的 DEFAULT 关键字不能直接分配给目标列,因为它是一个表达式的一部分。例如:允许 UPDATE SET c1 = DEFAULT,但不允许 UPDATE T SET c1 = DEFAULT + 1

42608 # NO_DEFAULT_COLUMN_VALUE_AVAILABLE

无法确定 <colName> 的默认值,因为它不可为空且没有默认值。

42611 # CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

需要定义水印才能重新分配事件时间列。在流式查询中未找到水印定义。

42611 # IDENTITY_COLUMNS_ILLEGAL_STEP

IDENTITY 列步长不能为 0。

42613 # INCOMPATIBLE_JOIN_TYPES

JOIN 类型 <joinType1><joinType2> 不兼容。

42613 # INVALID_JOIN_TYPE_FOR_JOINWITH

joinWith 中的 JOIN 类型无效:<joinType>

42613 # INVALID_LATERAL_JOIN_TYPE

不允许 <joinType> JOIN 带有 LATERAL 关联,因为外部子查询不能与其 JOIN 伙伴关联。请删除 LATERAL 关联,或改用 INNER JOIN 或 LEFT OUTER JOIN。

42613 # INVALID_QUERY_MIXED_QUERY_PARAMETERS

参数化查询必须使用位置参数或命名参数,但不能同时使用两者。

42613 # INVALID_SINGLE_VARIANT_COLUMN

如果同时存在用户指定的模式,则不能使用 singleVariantColumn 选项。

42613 # NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

当 MERGE 语句中存在多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略条件。

42613 # NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

当 MERGE 语句中存在多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略条件。

42613 # NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

当 MERGE 语句中存在多个 NOT MATCHED [BY TARGET] 子句时,只有最后一个 NOT MATCHED [BY TARGET] 子句可以省略条件。

42613 # STDS_CONFLICT_OPTIONS

选项 <options> 不能同时指定。请指定其中一个。

42614 # DUPLICATE_CLAUSES

发现重复子句:<clauseName>。请删除其中一个。

42614 # REPEATED_CLAUSE

<clause> 子句在每次 <operation> 操作中最多只能使用一次。

42616 # INVALID_SPARK_CONFIG

无效的 Spark 配置

# INVALID_EXECUTOR_HEARTBEAT_INTERVAL

<networkTimeoutKey>=<networkTimeoutValue>ms 的值必须大于 <executorHeartbeatIntervalKey>=<executorHeartbeatIntervalValue>ms 的值。

# INVALID_EXECUTOR_MEMORY_OPTIONS

不允许 <executorOptsKey> 指定最大堆内存设置(曾是 '<javaOpts>')。请改用 spark.executor.memory。

# INVALID_EXECUTOR_SPARK_OPTIONS

不允许 <executorOptsKey> 设置 Spark 选项(曾是 '<javaOpts>')。在使用 ./bin/spark-submit 时,请直接在 SparkConf 或属性文件中设置它们。

# INVALID_MEMORY_FRACTION

<memoryFractionKey> 应在 0 到 1 之间(曾是 '<memoryFractionValue>')。

# INVALID_SPARK_SUBMIT_DEPLOY_MODE_KEY

<sparkSubmitDeployModeKey> 只能是 "cluster" 或 "client"。

# NETWORK_AUTH_MUST_BE_ENABLED

启用加密时必须启用 <networkAuthEnabledConf>

42616 # STDS_INVALID_OPTION_VALUE

源选项 '<optionName>' 的值无效

# IS_EMPTY

不能为空。

# IS_NEGATIVE

不能为负。

# WITH_MESSAGE

<message>

42617 # PARSE_EMPTY_STATEMENT

语法错误,意外的空语句。

42621 # UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

无法创建生成列 <fieldName>,生成表达式为 <expressionStr>,原因是 <reason>

42623 # ADD_DEFAULT_UNSUPPORTED

无法执行 <statementType> 命令,因为向现有目标数据源(表提供者:"<dataSource>")添加新列时不支持 DEFAULT 值。

42623 # DEFAULT_UNSUPPORTED

无法执行 <statementType> 命令,因为目标数据源(表提供者:"<dataSource>")不支持 DEFAULT 值。

42623 # GENERATED_COLUMN_WITH_DEFAULT_VALUE

列不能同时具有默认值和生成表达式,但列 <colName> 具有默认值:(<defaultValue>) 和生成表达式:(<genExpr>)。

42623 # IDENTITY_COLUMN_WITH_DEFAULT_VALUE

列不能同时具有默认值和 IDENTITY 列规范,但列 <colName> 具有默认值:(<defaultValue>) 和 IDENTITY 列规范:(<identityColumnSpec>)。

42623 # INVALID_DEFAULT_VALUE

无法执行 <statement> 命令,因为目标列或变量 <colName> 具有 DEFAULT 值 <defaultValue>

# DATA_TYPE

它需要 <expectedType> 类型,但语句提供了不兼容的 <actualType> 类型的值。

# NOT_CONSTANT

它不是一个常量表达式,其等效值在查询规划时可知。

# SUBQUERY_EXPRESSION

它包含子查询表达式。

# UNRESOLVED_EXPRESSION

它无法解析为有效表达式。

42701 # DUPLICATE_ASSIGNMENTS

列或变量 <nameList> 作为赋值目标出现多次。

42701 # EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

此 EXECUTE IMMEDIATE 命令的 USING 子句包含多个具有相同别名 (<aliases>) 的参数,这是无效的;请更新命令以指定唯一别名,然后重试。

42702 # AMBIGUOUS_COLUMN_OR_FIELD

列或字段 <name> 不明确,有 <n> 个匹配项。

42702 # AMBIGUOUS_COLUMN_REFERENCE

<name> 不明确。这是因为您连接了多个 DataFrame,其中一些 DataFrame 是相同的。此列指向其中一个 DataFrame,但 Spark 无法确定是哪一个。请在连接之前通过 DataFrame.alias 为 DataFrame 设置不同的别名,并使用限定名称指定列,例如 df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))

42702 # AMBIGUOUS_LATERAL_COLUMN_ALIAS

LATERAL 列别名 <name> 不明确,有 <n> 个匹配项。

42702 # EXCEPT_OVERLAPPING_COLUMNS

EXCEPT 列表中的列必须是唯一且不重叠的,但得到了 (<columns>)。

42703 # COLUMN_NOT_DEFINED_IN_TABLE

<tableName> 中未定义 <colType><colName>,已定义的表列为:<tableCols>

42703 # COLUMN_NOT_FOUND

找不到列 <colName>。请根据 SQL 配置 <caseSensitiveConfig> 验证列名的拼写和正确性。

42703 # UNRESOLVED_COLUMN

名称为 <objectName> 的列、变量或函数参数无法解析。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

您是指以下其中一个吗?[<proposal>]。

42703 # UNRESOLVED_FIELD

无法使用结构体类型列 <columnPath> 解析名称为 <fieldName> 的字段。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

您是指以下其中一个吗?[<proposal>]。

42703 # UNRESOLVED_MAP_KEY

无法将列 <objectName> 解析为映射键。如果键是字符串文字,请在其周围加上单引号 ''。

# WITHOUT_SUGGESTION
# WITH_SUGGESTION

否则,您是指以下其中一列或多列吗?[<proposal>]。

42703 # UNRESOLVED_USING_COLUMN_FOR_JOIN

JOIN 的 <side> 侧无法解析 USING 列 <colName><side> 侧列:[<suggestion>]。

42704 # AMBIGUOUS_REFERENCE

引用 <name> 不明确,可能是:<referenceNames>

42704 # CANNOT_RESOLVE_DATAFRAME_COLUMN

无法解析 DataFrame 列 <name>。这可能是由于非法引用(例如 df1.select(df2.col("a")))造成的。

42704 # CANNOT_RESOLVE_STAR_EXPAND

无法解析给定输入列 <columns><targetString>.*。请检查指定的表或结构是否存在且可在输入列中访问。

42704 # CODEC_SHORT_NAME_NOT_FOUND

找不到编解码器 <codecName> 的短名称。

42704 # COLLATION_INVALID_NAME

<collationName> 不表示正确的排序规则名称。建议的有效排序规则名称:[<proposals>]。

42704 # COLLATION_INVALID_PROVIDER

<provider> 不表示正确的排序规则提供者。支持的提供者是:[<supportedProviders>]。

42704 # DATA_SOURCE_NOT_EXIST

未找到数据源 '<provider>'。请确保已注册该数据源。

42704 # DEFAULT_DATABASE_NOT_EXISTS

默认数据库 <defaultDatabase> 不存在,请先创建它或将默认数据库更改为 <defaultDatabase>

42704 # ENCODER_NOT_FOUND

未找到将类型 <typeName> 编码为 Spark SQL 内部表示的编码器。请考虑将输入类型更改为 '<docroot>/sql-ref-datatypes.html' 中支持的类型之一。

42704 # FIELD_NOT_FOUND

<fields> 中没有这样的结构字段 <fieldName>

42704 # INDEX_NOT_FOUND

在表 <tableName> 上找不到索引 <indexName>

42704 # SCHEMA_NOT_FOUND

找不到模式 <schemaName>。请验证模式和目录的拼写和正确性。如果您未指定目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。要容忍删除错误,请使用 DROP SCHEMA IF EXISTS。

42704 # UNRECOGNIZED_SQL_TYPE

未识别的 SQL 类型 - 名称:<typeName>,ID:<jdbcType>

42704 # UNRECOGNIZED_STATISTIC

统计信息 <stats> 未识别。有效统计信息包括 countcount_distinctapprox_count_distinctmeanstddevminmax 和百分位数。百分位数必须是后跟 '%' 的数值,范围在 0% 到 100% 之间。

42710 # ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

ALTER TABLE <type><columnName> 多次指定描述符 "<optionName>",这是无效的。

42710 # CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

CREATE TABLE 列 <columnName> 多次指定描述符 "<optionName>",这是无效的。

42710 # DATA_SOURCE_ALREADY_EXISTS

数据源 '<provider>' 已存在。请为新数据源选择不同的名称。

42710 # DUPLICATED_METRICS_NAME

指标名称不是唯一的:<metricName>。相同名称不能用于具有不同结果的指标。但是,允许具有相同结果和名称的指标的多个实例(例如自连接)。

42710 # FIELD_ALREADY_EXISTS

无法 <op> 列,因为 <fieldNames> 已存在于 <struct> 中。

42710 # FOUND_MULTIPLE_DATA_SOURCES

检测到多个名称为 '<provider>' 的数据源。请检查数据源是否未同时注册且位于类路径中。

42710 # INDEX_ALREADY_EXISTS

无法在表 <tableName> 上创建索引 <indexName>,因为它已存在。

42710 # LOCATION_ALREADY_EXISTS

无法将托管表命名为 <identifier>,因为其关联位置 <location> 已存在。请选择不同的表名,或先删除现有位置。

42710 # MULTIPLE_XML_DATA_SOURCE

检测到多个名称为 <provider> (<sourceNames>) 的数据源。请指定完全限定类名或从类路径中移除 <externalSource>

42711 # COLUMN_ALREADY_EXISTS

<columnName> 已存在。请选择其他名称或重命名现有列。

42711 # DUPLICATE_ROUTINE_RETURNS_COLUMNS

在用户定义例程 <routineName> 的 RETURNS 子句列列表中发现重复列:<columns>

42713 # ARTIFACT_ALREADY_EXISTS

工件 <normalizedRemoteRelativePath> 已存在。请为新工件选择不同的名称,因为它不能被覆盖。

42713 # DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

Arrow 结构体中不允许重复的字段名,得到 <fieldNames>

42713 # STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

静态分区列 <staticName> 也已在列列表中指定。

42723 # ROUTINE_ALREADY_EXISTS

无法创建 <newRoutineType> <routineName>,因为同名 <existingRoutineType> 已存在。请选择不同的名称,删除或替换现有的 <existingRoutineType>,或添加 IF NOT EXISTS 子句以容忍预先存在的 <newRoutineType>

42723 # VARIABLE_ALREADY_EXISTS

无法创建变量 <variableName>,因为它已存在。请选择不同的名称,或删除或替换现有变量。

42734 # DUPLICATE_CONDITION_IN_SCOPE

在作用域中发现重复条件 <condition>。请删除其中一个。

42734 # DUPLICATE_EXCEPTION_HANDLER

发现重复的处理程序。请删除其中一个。

# CONDITION

发现针对相同条件 <condition> 的重复处理程序。

# SQLSTATE

发现针对相同 SQLSTATE <sqlState> 的重复处理程序。

42734 # DUPLICATE_ROUTINE_PARAMETER_NAMES

在用户定义例程 <routineName> 的参数列表中发现重复名称:<names>

4274K # DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

对例程 <routineName> 的调用无效,因为它包含对同一参数名 <parameterName> 的多个参数赋值。

# BOTH_POSITIONAL_AND_NAMED

位置参数和命名参数都引用了同一个参数。请删除引用此参数的命名参数。

# DOUBLE_NAMED_ARGUMENT_REFERENCE

多个命名参数引用了同一个参数。请只分配一次值。

4274K # NAMED_PARAMETERS_NOT_SUPPORTED

函数 <functionName> 不支持命名参数;请改用位置参数重新尝试函数调用。

4274K # REQUIRED_PARAMETER_NOT_FOUND

无法调用例程 <routineName>,因为参数 <parameterName> 是必需的,但例程调用未提供值。请更新例程调用以提供参数值(通过位置索引 <index> 或按名称),然后再次尝试查询。

4274K # UNEXPECTED_POSITIONAL_ARGUMENT

无法调用例程 <routineName>,因为它包含在分配给 <parameterName> 的命名参数之后的位置参数;请重新排列它们,使位置参数在前,然后再次尝试查询。

4274K # UNRECOGNIZED_PARAMETER_NAME

无法调用例程 <routineName>,因为例程调用包含对名为 <argumentName> 的参数的命名参数引用,但此例程不包含任何包含此名称参数的签名。您是指以下其中一个吗?[<proposal>]。

42802 # ASSIGNMENT_ARITY_MISMATCH

分配或别名化的列或变量的数量:<numTarget> 与源表达式的数量:<numExpr> 不匹配。

42802 # STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

无法使用无效句柄状态 <handleState> 执行有状态处理器操作=<operationType>

42802 # STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

无法使用无效时间模式 <timeMode> 执行有状态处理器操作=<operationType>

42802 # STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

StatefulProcessor 中已定义名称为 <stateVarName> 的状态变量。

42802 # STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

无法在 timeMode=<timeMode> 中对 state=<stateName> 使用 TTL,请改用 TimeMode.ProcessingTime()。

42802 # STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

状态存储操作=<operationType> 在 state=<stateName> 上的 TTL 持续时间必须大于零。

42802 # STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

未知时间模式 <timeMode>。可接受的时间模式为 'none'、'processingTime'、'eventTime'。

42802 # STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

无法创建以不支持的起始字符和名称=<colFamilyName> 的列族。

42802 # STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

无法执行列族操作=<operationName>,因为名称=<colFamilyName> 无效。列族名称不能为空,不能包含前导/尾随空格,也不能使用保留关键字=default。

42802 # STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

列族=<colFamilyName> 的模式转换不兼容,oldSchema=<oldSchema>,newSchema=<newSchema>

42802 # STATE_STORE_HANDLE_NOT_INITIALIZED

此 StatefulProcessor 的句柄尚未初始化。请仅在 transformWithState 运算符中使用 StatefulProcessor。

42802 # STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

范围扫描编码器的排序序数数量不正确:<numOrderingCols>。排序序数数量不能为零或大于模式列数。

42802 # STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

前缀扫描编码器的前缀列数量不正确:<numPrefixCols>。前缀列不能为零或大于等于模式列数。

42802 # STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

范围扫描编码器不支持在索引=<index> 处名称为 <fieldName> 的 null 类型排序列。

42802 # STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

对缺失列族=<colFamilyName> 不支持状态存储操作=<operationType>

42802 # STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

范围扫描编码器不支持可变大小的排序列,其名称为 <fieldName>,索引为 <index>

42802 # UDTF_ALIAS_NUMBER_MISMATCH

AS 子句中提供的别名数量与 UDTF 输出的列数不匹配。预期有 <aliasesSize> 个别名,但得到了 <aliasesNames>。请确保提供的别名数量与 UDTF 输出的列数匹配。

42802 # UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

无法评估用户定义的表函数,因为其“analyze”方法返回了一个请求的 OrderingColumn,该 OrderingColumn 的列名表达式包含不必要的别名 <aliasName>;请删除此别名,然后重试查询。

42802 # UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

无法评估用户定义的表函数,因为其“analyze”方法返回了一个请求的“select”表达式 (<expression>) 不包含相应的别名;请更新 UDTF 以在此处指定一个别名,然后重试查询。

42803 # GROUPING_COLUMN_MISMATCH

分组的列 (<grouping>) 在分组列 <groupingColumns> 中找不到。

42803 # GROUPING_ID_COLUMN_MISMATCH

grouping_id 的列 (<groupingIdColumn>) 与分组列 (<groupByColumns>) 不匹配。

42803 # MISSING_AGGREGATION

非聚合表达式 <expression> 基于不参与 GROUP BY 子句的列。将列或表达式添加到 GROUP BY 中,聚合表达式,或者如果您不关心组中返回哪个值,则使用 <expressionAnyValue>

42803 # MISSING_GROUP_BY

查询不包含 GROUP BY 子句。添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。

42803 # UNRESOLVED_ALL_IN_GROUP_BY

无法根据 SELECT 子句推断 GROUP BY ALL 的分组列。请显式指定分组列。

42804 # INVALID_CORRUPT_RECORD_TYPE

损坏记录的列 <columnName> 必须具有可空的 STRING 类型,但得到了 <actualType>

42804 # TRANSPOSE_INVALID_INDEX_COLUMN

TRANSPOSE 的索引列无效,原因:<reason>

42805 # GROUP_BY_POS_OUT_OF_RANGE

GROUP BY 位置 <index> 不在选择列表中(有效范围是 [1, <size>])。

42805 # ORDER_BY_POS_OUT_OF_RANGE

ORDER BY 位置 <index> 不在选择列表中(有效范围是 [1, <size>])。

42809 # EXPECT_PERMANENT_VIEW_NOT_TEMP

<operation>”预期一个永久视图,但 <viewName> 是一个临时视图。

42809 # EXPECT_TABLE_NOT_VIEW

<operation>”预期一个表,但 <viewName> 是一个视图。

# NO_ALTERNATIVE
# USE_ALTER_VIEW

请改用 ALTER VIEW。

42809 # EXPECT_VIEW_NOT_TABLE

<tableName> 不支持 <operation>

# NO_ALTERNATIVE
# USE_ALTER_TABLE

请改用 ALTER TABLE。

42809 # FORBIDDEN_OPERATION

不允许对 <objectType><objectName> 执行操作 <statement>

42809 # NOT_A_PARTITIONED_TABLE

不允许对 <tableIdentWithDB> 执行操作 <operation>,因为它不是分区表。

42809 # UNSUPPORTED_INSERT

无法插入目标。

# MULTI_PATH

只能向具有单个路径的关系写入数据,但给定路径为 <paths>

# NOT_ALLOWED

目标关系 <relationId> 不允许插入。

# NOT_PARTITIONED

目标关系 <relationId> 未分区。

# RDD_BASED

不允许基于 RDD 的表。

# READ_FROM

目标关系 <relationId> 也在被读取。

42809 # WRONG_COMMAND_FOR_OBJECT_TYPE

操作 <operation> 需要 <requiredType>。但 <objectName><foundType>。请改用 <alternative>

42815 # EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

前一个节点发出的行事件时间 eventTime=<emittedRowEventTime> 早于当前水位线值 current_watermark_value=<currentWatermark>。这可能导致执行管道中下游的有状态运算符出现正确性问题。请修正运算符逻辑,使其在当前全局水位线值之后发出行。

42818 # INCOMPARABLE_PIVOT_COLUMN

无效的枢轴列 <columnName>。枢轴列必须是可比较的。

42822 # EXPRESSION_TYPE_IS_NOT_ORDERABLE

列表达式 <expr> 无法排序,因为其类型 <exprType> 不可排序。

42822 # GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

表达式 <sqlExpr> 不能用作分组表达式,因为其数据类型 <dataType> 不是可排序数据类型。

42822 # HINT_UNSUPPORTED_FOR_JDBC_DIALECT

JDBC 数据源不支持 <jdbcDialect>hint 选项。支持的方言有 MySQLDialectOracleDialectDatabricksDialect

42823 # INVALID_SUBQUERY_EXPRESSION

无效的子查询

# SCALAR_SUBQUERY_RETURN_MORE_THAN_ONE_OUTPUT_COLUMN

标量子查询必须只返回一列,但得到了 <number> 列。

# STREAMING_QUERY

子查询表达式中不允许流式查询。

42825 # CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

无法合并不兼容的数据类型 <left><right>。请检查要合并的列的数据类型,并确保它们兼容。如有必要,请考虑在尝试合并之前将列转换为兼容的数据类型。

42825 # INCOMPATIBLE_COLUMN_TYPE

<operator> 只能对具有兼容列类型的表执行。<tableOrdinalNumber> 表的 <columnOrdinalNumber> 列是 <dataType1> 类型,与第一个表的同一列的 <dataType2> 不兼容。<hint>

42826 # NUM_COLUMNS_MISMATCH

<operator> 只能对具有相同列数的输入执行,但第一个输入有 <firstNumColumns> 列,而 <invalidOrdinalNum> 输入有 <invalidNumColumns> 列。

42826 # NUM_TABLE_VALUE_ALIASES_MISMATCH

给定别名的数量与输出列的数量不匹配。函数名:<funcName>;别名数量:<aliasesNum>;输出列数量:<outColsNum>

42836 # INVALID_RECURSIVE_CTE

发现无效的递归定义。递归查询必须包含一个 UNION 或 UNION ALL 语句,且具有 2 个子项。第一个子项必须是不带任何递归引用的锚定项。

42836 # INVALID_RECURSIVE_REFERENCE

在 WITH RECURSIVE 子句中发现无效的递归引用。

# NUMBER

不允许对一个递归 CTE 进行多次自引用。

# PLACE

递归引用不能用于左外/半/反连接的右侧,右外连接的左侧,全外连接,聚合中,以及子查询表达式中。

42836 # RECURSIVE_CTE_IN_LEGACY_MODE

在旧版 CTE 优先级模式下(spark.sql.legacy.ctePrecedencePolicy=LEGACY)不能使用递归定义。

42836 # RECURSIVE_CTE_WHEN_INLINING_IS_FORCED

当强制 CTE 内联时,不能使用递归定义。

42845 # AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

非确定性表达式 <sqlExpr> 不应出现在聚合函数的参数中。

42846 # CANNOT_CAST_DATATYPE

无法将 <sourceType> 转换为 <targetType>

42846 # CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

无法将 Protobuf <protobufColumn> 转换为 SQL <sqlColumn>,因为模式不兼容 (protobufType = <protobufType>, sqlType = <sqlType>)。

42846 # CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

无法将 Protobuf 的 <protobufType> 转换为 SQL 类型 <toType>

42846 # CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为模式不兼容 (protobufType = <protobufType>, sqlType = <sqlType>)。

42846 # CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

无法将 SQL <sqlColumn> 转换为 Protobuf <protobufColumn>,因为 <data> 不在枚举的定义值中:<enumString>

42846 # CANNOT_UP_CAST_DATATYPE

无法将 <expression><sourceType> 向上转换为 <targetType><details>

42846 # EXPRESSION_DECODING_FAILED

无法将行解码为表达式的值:<expressions>

42846 # EXPRESSION_ENCODING_FAILED

无法将表达式的值:<expressions> 编码为行。

42846 # INVALID_PARTITION_VALUE

无法将值 <value> 转换为分区列 <columnName> 的数据类型 <dataType>。请确保该值与此分区列的预期数据类型匹配。

42846 # PARQUET_CONVERSION_FAILURE

无法为数据类型 <dataType>(其 Parquet 类型为 <parquetType>)创建 Parquet 转换器。

# DECIMAL

Parquet DECIMAL 类型只能由 INT32、INT64、FIXED_LEN_BYTE_ARRAY 或 BINARY 支持。

# UNSUPPORTED

请修改转换以确保其受支持。

# WITHOUT_DECIMAL_METADATA

请将此列/字段读取为 Spark BINARY 类型。

42846 # PARQUET_TYPE_ILLEGAL

非法的 Parquet 类型:<parquetType>

42846 # PARQUET_TYPE_NOT_RECOGNIZED

无法识别的 Parquet 类型:<field>

42846 # PARQUET_TYPE_NOT_SUPPORTED

尚不支持的 Parquet 类型:<parquetType>

42846 # UNEXPECTED_SERIALIZER_FOR_CLASS

<className> 具有意外的表达式序列化器。预期为“STRUCT”或返回“STRUCT”的“IF”,但找到了 <expr>

42883 # ROUTINE_NOT_FOUND

找不到例程 <routineName>。请验证模式和目录的拼写和正确性。如果您没有用模式和目录限定名称,请验证 current_schema() 输出,或用正确的模式和目录限定名称。若要容忍删除时的错误,请使用 DROP ... IF EXISTS。

42883 # UNRESOLVABLE_TABLE_VALUED_FUNCTION

无法将 <name> 解析为表值函数。请确保 <name> 已定义为表值函数,并且所有必需的参数均已正确提供。如果 <name> 未定义,请在使用前创建该表值函数。有关定义表值函数的更多信息,请参阅 Apache Spark 文档。

42883 # UNRESOLVED_ROUTINE

无法在搜索路径 <searchPath> 上解析例程 <routineName>

42883 # UNRESOLVED_VARIABLE

无法在搜索路径 <searchPath> 上解析变量 <variableName>

42883 # VARIABLE_NOT_FOUND

找不到变量 <variableName>。请验证模式和目录的拼写和正确性。如果您没有用模式和目录限定名称,请验证 current_schema() 输出,或用正确的模式和目录限定名称。若要容忍删除时的错误,请使用 DROP VARIABLE IF EXISTS。

428B3 # INVALID_SQLSTATE

无效的 SQLSTATE 值:“<sqlState>”。SQLSTATE 必须恰好是 5 个字符长,并且只能包含 A-Z 和 0-9。SQLSTATE 不得以“00”、“01”或“XX”开头。

428C4 # UNPIVOT_VALUE_SIZE_MISMATCH

所有 unpivot 值列的大小必须与值列名 (<names>) 的数量相同。

428EK # TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

CREATE TEMPORARY VIEW 或相应的 Dataset API 只接受单部分视图名称,但得到了:<actualName>

428FR # CANNOT_ALTER_COLLATION_BUCKET_COLUMN

ALTER TABLE (ALTER|CHANGE) COLUMN 无法更改桶列的类型/子类型的排序规则,但在表 <tableName> 中找到了桶列 <columnName>

428FR # CANNOT_ALTER_PARTITION_COLUMN

ALTER TABLE (ALTER|CHANGE) COLUMN 不支持分区列,但在表 <tableName> 中找到了分区列 <columnName>

428FT # PARTITIONS_ALREADY_EXIST

无法在表 <tableName> 中添加或重命名分区 <partitionList>,因为它们已存在。请选择不同的名称,删除现有分区,或添加 IF NOT EXISTS 子句以容忍预先存在的分区。

428FT # PARTITIONS_NOT_FOUND

在表 <tableName> 中找不到分区 <partitionList>。请验证分区规范和表名。若要容忍删除时的错误,请使用 ALTER TABLE … DROP IF EXISTS PARTITION。

428H2 # EXCEPT_NESTED_COLUMN_INVALID_TYPE

EXCEPT 列 <columnName> 已解析并预期为 StructType,但找到了类型 <dataType>

428H2 # IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

IDENTITY 列不支持数据类型 <dataType>

42902 # UNSUPPORTED_OVERWRITE

无法覆盖正在读取的目标。

# PATH

目标路径是 <path>

# TABLE

目标表是 <table>

42903 # GROUP_BY_AGGREGATE

GROUP BY 中不允许使用聚合函数,但找到了 <sqlExpr>

42903 # GROUP_BY_POS_AGGREGATE

GROUP BY <index> 指向的表达式 <aggExpr> 包含聚合函数。GROUP BY 中不允许使用聚合函数。

42903 # INVALID_AGGREGATE_FILTER

聚合函数中的 FILTER 表达式 <filterExpr> 无效。

# CONTAINS_AGGREGATE

预期一个不带聚合的 FILTER 表达式,但找到了 <aggExpr>

# CONTAINS_WINDOW_FUNCTION

预期一个不带窗口函数的 FILTER 表达式,但找到了 <windowExpr>

# NON_DETERMINISTIC

预期一个确定性的 FILTER 表达式。

# NOT_BOOLEAN

预期一个 BOOLEAN 类型的 FILTER 表达式。

42903 # INVALID_WHERE_CONDITION

WHERE 条件 <condition> 包含无效表达式:<expressionList>。请重写查询,以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

42908 # SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

不能同时指定 CLUSTER BY 和 CLUSTERED BY INTO BUCKETS。

42908 # SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

不能同时指定 CLUSTER BY 和 PARTITIONED BY。

429BB # CANNOT_RECOGNIZE_HIVE_TYPE

无法识别 hive 类型字符串:<fieldType>,列:<fieldName>。Spark SQL 无法识别指定字段的数据类型。请检查指定字段的数据类型,并确保其是有效的 Spark SQL 数据类型。有关有效数据类型及其格式的列表,请参阅 Spark SQL 文档。如果数据类型正确,请确保您使用的是受支持的 Spark SQL 版本。

42K01 # DATATYPE_MISSING_SIZE

数据类型 <type> 需要一个长度参数,例如 <type>(10)。请指定长度。

42K01 # INCOMPLETE_TYPE_DEFINITION

不完整的复杂类型

# ARRAY

“ARRAY”类型的定义不完整。您必须提供一个元素类型。例如:“ARRAY<elementType>”。

# MAP

“MAP”类型的定义不完整。您必须提供一个键类型和一个值类型。例如:“MAP<TIMESTAMP, INT>”。

# STRUCT

“STRUCT”类型的定义不完整。您必须提供至少一个字段类型。例如:“STRUCT<name STRING, phone DECIMAL(10, 0)>”。

42K02 # DATA_SOURCE_NOT_FOUND

找不到数据源:<provider>。请确保提供程序名称正确,并且包已正确注册并与您的 Spark 版本兼容。

42K03 # BATCH_METADATA_NOT_FOUND

无法找到批处理 <batchMetadataFile>

42K03 # CANNOT_LOAD_PROTOBUF_CLASS

无法加载名为 <protobufClassName> 的 Protobuf 类。<explanation>

42K03 # DATA_SOURCE_TABLE_SCHEMA_MISMATCH

数据源表的模式与预期模式不匹配。如果您正在使用 DataFrameReader.schema API 或创建表,请避免指定模式。数据源模式:<dsSchema> 预期模式:<expectedSchema>

42K03 # LOAD_DATA_PATH_NOT_EXISTS

LOAD DATA 输入路径不存在:<path>

42K03 # PATH_NOT_FOUND

路径不存在:<path>

42K03 # RENAME_SRC_PATH_NOT_FOUND

由于未找到 <sourcePath>,重命名失败。

42K03 # STDS_FAILED_TO_READ_OPERATOR_METADATA

无法读取 checkpointLocation=<checkpointLocation> 和 batchId=<batchId> 的操作符元数据。文件可能不存在,或者文件已损坏。请重新运行流式查询以构建操作符元数据,如果错误仍然存在,请向相应的社区或供应商报告。

42K03 # STDS_FAILED_TO_READ_STATE_SCHEMA

无法读取状态模式。文件可能不存在,或者文件已损坏。选项:<sourceOptions>。请重新运行流式查询以构建状态模式,如果错误仍然存在,请向相应的社区或供应商报告。

42K03 # STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

流式有状态操作符名称与状态元数据中的操作符不匹配。这通常发生在用户添加/删除/更改现有流式查询的有状态操作符时。元数据中的有状态操作符:[<OpsInMetadataSeq>];当前批次中的有状态操作符:[<OpsInCurBatchSeq>]。

42K04 # FAILED_RENAME_PATH

由于目标已存在,无法将 <sourcePath> 重命名为 <targetPath>

42K04 # PATH_ALREADY_EXISTS

路径 <outputPath> 已存在。请将模式设置为“overwrite”以覆盖现有路径。

42K05 # INVALID_EMPTY_LOCATION

位置名称不能为空字符串,但给定的是 <location>

42K05 # REQUIRES_SINGLE_PART_NAMESPACE

<sessionCatalog> 需要单个部分的命名空间,但得到了 <namespace>

42K05 # SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SHOW COLUMNS 与冲突的命名空间:<namespaceA> != <namespaceB>

42K06 # INVALID_OPTIONS

无效选项

# NON_MAP_FUNCTION

选项必须使用 map() 函数。

# NON_STRING_TYPE

map() 中键和值的类型必须是字符串,但得到了 <mapType>

42K06 # STATE_STORE_INVALID_CONFIG_AFTER_RESTART

在重启之间无法将 <configName><oldConfig> 更改为 <newConfig>。请将 <configName> 设置为 <oldConfig>,或使用新的检查点目录重新启动。

42K06 # STATE_STORE_INVALID_PROVIDER

给定的状态存储提供程序 <inputClass> 未扩展 org.apache.spark.sql.execution.streaming.state.StateStoreProvider。

42K06 # STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

查询重启之间无法将 <stateVarName> 更改为 <newType>。请将 <stateVarName> 设置为 <oldType>,或使用新的检查点目录重新启动。

42K06 # STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

给定的状态存储提供程序 <inputClass> 未扩展 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay。因此,它不支持状态数据源中的选项 snapshotStartBatchId 或 readChangeFeed。

42K06 # STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

状态模式文件数量 <numStateSchemaFiles> 超过了此查询允许的最大状态模式文件数量:<maxStateSchemaFiles>。添加:<addedColumnFamilies>,删除:<removedColumnFamilies>。请将 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' 设置为更高的数字,或恢复状态模式修改。

42K06 # STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

状态模式演进次数 <numSchemaEvolutions> 超过了此列族允许的最大状态模式演进次数 <maxSchemaEvolutions>。冲突的列族:<colFamilyName>。请将 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' 设置为更高的数字,或恢复状态模式修改。

42K07 # INVALID_SCHEMA

输入模式 <inputSchema> 不是有效的模式字符串。

# NON_STRING_LITERAL

输入表达式必须是字符串字面量且非空。

# NON_STRUCT_TYPE

输入表达式应求值为结构体类型,但得到了 <dataType>

# PARSE_ERROR

无法解析模式:<reason>

42K08 # INVALID_SQL_ARG

sql() 的参数 <name> 无效。请考虑将其替换为 SQL 字面量或集合构造函数(如 map()array()struct())。

42K08 # NON_FOLDABLE_ARGUMENT

函数 <funcName> 要求参数 <paramName><paramType> 类型的可折叠表达式,但实际参数是不可折叠的。

42K08 # NON_LITERAL_PIVOT_VALUES

枢轴值需要字面量表达式,找到了 <expression>

42K08 # SEED_EXPRESSION_IS_UNFOLDABLE

表达式 <exprWithSeed> 的种子表达式 <seedExpr> 必须是可折叠的。

42K09 # COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

无法处理表达式的输入数据类型:<expression>

# BAD_INPUTS

<functionName> 的输入数据类型必须有效,但找到了输入类型 <dataType>

# MISMATCHED_TYPES

所有输入类型必须相同,除了 nullable、containsNull、valueContainsNull 标志,但找到了输入类型 <inputTypes>

# NO_INPUTS

输入数据类型集合不能为空。

42K09 # DATATYPE_MISMATCH

由于数据类型不匹配,无法解析 <sqlExpr>

# ARRAY_FUNCTION_DIFF_TYPES

<functionName> 的输入应该是 <dataType>,后跟一个具有相同元素类型的值,但它是 [<leftType>, <rightType>]。

# BINARY_ARRAY_DIFF_TYPES

函数 <functionName> 的输入应该是两个具有相同元素类型的 <arrayType>,但它是 [<leftType>, <rightType>]。

# BINARY_OP_DIFF_TYPES

二进制运算符的左操作数和右操作数具有不兼容的类型(<left><right>)。

# BINARY_OP_WRONG_TYPE

二进制运算符需要输入类型 <inputType>,而不是 <actualDataType>

# BLOOM_FILTER_BINARY_OP_WRONG_TYPE

<functionName> 的 Bloom 过滤器二进制输入应该是一个常量值或标量子查询表达式,但它是 <actual>

# BLOOM_FILTER_WRONG_TYPE

函数 <functionName> 的输入应该是 <expectedLeft>,后跟一个具有 <expectedRight> 的值,但它是 [<actual>]。

# CANNOT_CONVERT_TO_JSON

无法将类型为 <type> 的列 <name> 转换为 JSON。

# CANNOT_DROP_ALL_FIELDS

无法删除结构体中的所有字段。

# CAST_WITHOUT_SUGGESTION

无法将 <srcType> 转换为 <targetType>

# CAST_WITH_CONF_SUGGESTION

在 ANSI 模式下无法将 <srcType> 转换为 <targetType>。如果您必须将 <srcType> 转换为 <targetType>,您可以将 <config> 设置为 <configVal>

# CAST_WITH_FUNC_SUGGESTION

无法将 <srcType> 转换为 <targetType>。要将值从 <srcType> 转换为 <targetType>,您可以改用函数 <functionNames>

# CREATE_MAP_KEY_DIFF_TYPES

函数 <functionName> 的给定键都应该具有相同的类型,但它们是 <dataType>

# CREATE_MAP_VALUE_DIFF_TYPES

函数 <functionName> 的给定值都应该具有相同的类型,但它们是 <dataType>

# CREATE_NAMED_STRUCT_WITHOUT_FOLDABLE_STRING

只有可折叠的 STRING 表达式才允许出现在奇数位置,但它们是 <inputExprs>

# DATA_DIFF_TYPES

<functionName> 的输入都应该具有相同的类型,但它是 <dataType>

# FILTER_NOT_BOOLEAN

类型为 <type> 的筛选表达式 <filter> 不是布尔值。

# HASH_MAP_TYPE

函数 <functionName> 的输入不能包含“MAP”类型的元素。在 Spark 中,相同的 map 可能具有不同的哈希码,因此禁止对“MAP”元素进行哈希表达式。要恢复之前的行为,请将“spark.sql.legacy.allowHashOnMapType”设置为“true”。

# HASH_VARIANT_TYPE

函数 <functionName> 的输入尚不能包含“VARIANT”类型的元素。

# INPUT_SIZE_NOT_ONE

<exprName> 的长度应为 1。

# INVALID_ARG_VALUE

<inputName> 值必须是 <validValues><requireType> 字面量,但得到了 <inputValue>

# INVALID_JSON_MAP_KEY_TYPE

输入模式 <schema> 只能包含 STRING 作为 MAP 的键类型。

# INVALID_JSON_SCHEMA

输入模式 <schema> 必须是结构体、数组、映射或变体。

# INVALID_MAP_KEY_TYPE

map 的键不能是/包含 <keyType>

# INVALID_ORDERING_TYPE

<functionName> 不支持对类型 <dataType> 进行排序。

# INVALID_ROW_LEVEL_OPERATION_ASSIGNMENTS

<errors>

# INVALID_XML_MAP_KEY_TYPE

输入模式 <schema> 只能包含 STRING 作为 MAP 的键类型。

# IN_SUBQUERY_DATA_TYPE_MISMATCH

IN 子查询左侧的一个或多个元素的数据类型与子查询输出的数据类型不兼容。不匹配的列:[<mismatchedColumns>],左侧:[<leftType>],右侧:[<rightType>]。

# IN_SUBQUERY_LENGTH_MISMATCH

IN 子查询左侧的列数与子查询输出的列数不匹配。左侧列(长度:<leftLength>):[<leftColumns>],右侧列(长度:<rightLength>):[<rightColumns>]。

# MAP_CONCAT_DIFF_TYPES

<functionName> 都应该是 map 类型,但它是 <dataType>

# MAP_FUNCTION_DIFF_TYPES

<functionName> 的输入应该是 <dataType>,后跟一个具有相同键类型的值,但它是 [<leftType>, <rightType>]。

# MAP_ZIP_WITH_DIFF_TYPES

<functionName> 的输入应该是两个具有兼容键类型的映射,但它是 [<leftType>, <rightType>]。

# NON_FOLDABLE_INPUT

输入 <inputName> 应该是一个可折叠的 <inputType> 表达式;但是,得到了 <inputExpr>

# NON_STRING_TYPE

函数 <funcName> 的所有参数都必须是字符串。

# NON_STRUCT_TYPE

输入 <inputName> 应该是一个结构体表达式;但是,得到了 <inputType>

# NULL_TYPE

空类型值不能用作 <functionName> 的参数。

# PARAMETER_CONSTRAINT_VIOLATION

<leftExprName>(<leftExprValue>) 必须是 <constraint> <rightExprName>(<rightExprValue>)。

# RANGE_FRAME_INVALID_TYPE

排序规范中使用的数据类型 <orderSpecType> 不支持在范围帧中使用的 <valueBoundaryType> 数据类型。

# RANGE_FRAME_MULTI_ORDER

在具有多个 ORDER BY 表达式的窗口规范中,不能使用具有值边界的范围窗口帧:<orderSpec>

# RANGE_FRAME_WITHOUT_ORDER

范围窗口帧不能在无序窗口规范中使用。

# SEQUENCE_WRONG_INPUT_TYPES

<functionName> 使用了错误的参数类型。参数类型必须符合:1. 开始和停止表达式必须解析为相同的类型。2. 如果开始和停止表达式解析为 <startType> 类型,则步进表达式必须解析为 <stepType> 类型。3. 否则,如果开始和停止表达式解析为 <otherStartType> 类型,则步进表达式必须解析为相同的类型。

# SPECIFIED_WINDOW_FRAME_DIFF_TYPES

窗口帧边界 <lower><upper> 没有相同的类型:<lowerType> <> <upperType>

# SPECIFIED_WINDOW_FRAME_INVALID_BOUND

窗口帧上限 <upper> 未遵循下限 <lower>

# SPECIFIED_WINDOW_FRAME_UNACCEPTED_TYPE

<location> 边界 <exprType> 的数据类型与预期数据类型 <expectedType> 不匹配。

# SPECIFIED_WINDOW_FRAME_WITHOUT_FOLDABLE

窗口帧 <location> 边界 <expression> 不是字面量。

# SPECIFIED_WINDOW_FRAME_WRONG_COMPARISON

窗口帧的下限必须 <comparison> 上限。

# STACK_COLUMN_DIFF_TYPES

列 (<columnIndex>) 的数据类型不相同:<leftType> (<leftParamIndex>) <> <rightType> (<rightParamIndex>)。

# TYPE_CHECK_FAILURE_WITH_HINT

<msg>``<hint>.

# UNEXPECTED_CLASS_TYPE

未找到类 <className>

# UNEXPECTED_INPUT_TYPE

参数 <paramIndex> 需要 <requiredType> 类型,但 <inputSql> 的类型为 <inputType>

# UNEXPECTED_NULL

<exprName> 不得为空。

# UNEXPECTED_RETURN_TYPE

<functionName> 需要返回 <expectedType> 类型,但实际类型为 <actualType>

# UNEXPECTED_STATIC_METHOD

<className> 中找不到与参数类型匹配的静态方法 <methodName>

# UNSUPPORTED_INPUT_TYPE

<functionName> 的输入不能是 <dataType> 类型的数据。

# VALUE_OUT_OF_RANGE

<exprName> 必须在 <valueRange> 之间(当前值为 <currentValue>)。

# WRONG_NUM_ARG_TYPES

表达式需要 <expectedNum> 个参数类型,但实际数量为 <actualNum>

# WRONG_NUM_ENDPOINTS

要构建区间,端点数量必须 >= 2,但实际数量为 <actualNumber>

42K09 # EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

事件时间 <eventName> 的类型 <eventType> 无效,但预期为“TIMESTAMP”。

42K09 # INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

变量类型必须是字符串类型,但得到了 <varType>

42K09 # PIVOT_VALUE_DATA_TYPE_MISMATCH

无效的枢轴值 '<value>':值数据类型 <valueType> 与枢轴列数据类型 <pivotType> 不匹配。

42K09 # TRANSPOSE_NO_LEAST_COMMON_TYPE

转置需要非索引列共享一个最小公共类型,但 <dt1><dt2> 不共享。

42K09 # UNEXPECTED_INPUT_TYPE

函数 <functionName> 的参数 <paramIndex> 需要 <requiredType> 类型,但 <inputSql> 的类型为 <inputType>

42K09 # UNPIVOT_VALUE_DATA_TYPE_MISMATCH

Unpivot 值列必须共享一个最小公共类型,部分类型不共享:[<types>]。

42K0A # UNPIVOT_REQUIRES_ATTRIBUTES

当没有给定 <empty> 表达式时,UNPIVOT 要求所有给定 <given> 表达式都为列。这些不是列:[<expressions>]。

42K0A # UNPIVOT_REQUIRES_VALUE_COLUMNS

UNPIVOT 至少需要指定一个值列,所有列都指定为 ID。

42K0B # INCONSISTENT_BEHAVIOR_CROSS_VERSION

由于升级到

# DATETIME_PATTERN_RECOGNITION

Spark >= 3.0:DateTimeFormatter 中无法识别 <pattern> 模式。1) 您可以将 <config> 设置为“LEGACY”以恢复 Spark 3.0 之前的行为。2) 您可以根据“<docroot>/sql-ref-datetime-pattern.html”的指南形成有效的日期时间模式。

# DATETIME_WEEK_BASED_PATTERN

Spark >= 3.0:自 Spark 3.0 起,所有基于周的模式都不受支持,检测到基于周的字符:<c>。请改用 SQL 函数 EXTRACT。

# PARSE_DATETIME_BY_NEW_PARSER

Spark >= 3.0:在新解析器中无法解析 <datetime>。您可以将 <config> 设置为“LEGACY”以恢复 Spark 3.0 之前的行为,或者设置为“CORRECTED”并将其视为无效的日期时间字符串。

# READ_ANCIENT_DATETIME

Spark >= 3.0:从 <format> 文件读取 1582-10-15 之前的日期或 1900-01-01T00:00:00Z 之前的时间戳可能不明确,因为这些文件可能由 Spark 2.x 或 Hive 的旧版本写入,这些版本使用与 Spark 3.0+ 的 Proleptic Gregorian 日历不同的旧版混合日历。详见 SPARK-31404。您可以将 SQL 配置 <config> 或数据源选项 <option> 设置为“LEGACY”以在读取期间根据日历差异重新调整日期时间值。要按原样读取日期时间值,请将 SQL 配置或数据源选项设置为“CORRECTED”。

# WRITE_ANCIENT_DATETIME

Spark >= 3.0:将 1582-10-15 之前的日期或 1900-01-01T00:00:00Z 之前的时间戳写入 <format> 文件可能存在危险,因为这些文件以后可能由 Spark 2.x 或 Hive 的旧版本读取,这些版本使用与 Spark 3.0+ 的 Proleptic Gregorian 日历不同的旧版混合日历。详见 SPARK-31404。您可以将 <config> 设置为“LEGACY”以在写入期间根据日历差异重新调整日期时间值,以获得最大互操作性。或者将配置设置为“CORRECTED”以按原样写入日期时间值,如果您确定写入的文件只会被 Spark 3.0+ 或其他使用 Proleptic Gregorian 日历的系统读取。

42K0D # INVALID_LAMBDA_FUNCTION_CALL

无效的 lambda 函数调用。

# DUPLICATE_ARG_NAMES

lambda 函数具有重复参数 <args>。请考虑重命名参数名或将 <caseSensitiveConfig> 设置为“true”。

# NON_HIGHER_ORDER_FUNCTION

lambda 函数只能用于高阶函数。但是,它的类是 <class>,这不是一个高阶函数。

# NUM_ARGS_MISMATCH

高阶函数预期 <expectedNumArgs> 个参数,但得到了 <actualNumArgs> 个。

# PARAMETER_DOES_NOT_ACCEPT_LAMBDA_FUNCTION

您将 lambda 函数传递给了不接受它的参数。请检查 lambda 函数参数是否在正确的位置。

42K0E # INVALID_LIMIT_LIKE_EXPRESSION

类似 LIMIT 的表达式 <expr> 无效。

# DATA_TYPE

<name> 表达式必须是整数类型,但得到了 <dataType>

# IS_NEGATIVE

<name> 表达式必须大于或等于 0,但得到了 <v>

# IS_NULL

求值的 <name> 表达式不得为空。

# IS_UNFOLDABLE

<name> 表达式必须求值为常量。

42K0E # INVALID_NON_DETERMINISTIC_EXPRESSIONS

操作符需要确定性表达式,但实际表达式是 <sqlExprs>

42K0E # INVALID_OBSERVED_METRICS

无效的观察指标。

# AGGREGATE_EXPRESSION_WITH_DISTINCT_UNSUPPORTED

观察指标中不允许带有 DISTINCT 的聚合表达式,但找到了:<expr>

# AGGREGATE_EXPRESSION_WITH_FILTER_UNSUPPORTED

观察指标中不允许带有 FILTER 谓词的聚合表达式,但找到了:<expr>

# MISSING_NAME

观察指标应命名为:<operator>

# NESTED_AGGREGATES_UNSUPPORTED

观察指标中不允许嵌套聚合,但找到了:<expr>

# NON_AGGREGATE_FUNC_ARG_IS_ATTRIBUTE

属性 <expr> 只能用作聚合函数的参数。

# 后来发现了:# NON_AGGREGATE_FUNC_ARG_IS_NON_DETERMINISTIC

非确定性表达式 <expr> 只能用作聚合函数的参数。

# WINDOW_EXPRESSIONS_UNSUPPORTED

观察指标中不允许窗口表达式,但找到了:<expr>

42K0E # INVALID_TIME_TRAVEL_SPEC

时间回溯表时不能同时指定版本和时间戳。

42K0E # INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

时间回溯时间戳表达式 <expr> 无效。

# INPUT

无法转换为“TIMESTAMP”类型。

# NON_DETERMINISTIC

必须是确定性的。

# OPTION

选项中的时间戳字符串必须可以转换为 TIMESTAMP 类型。

# UNEVALUABLE

必须可求值。

42K0E # JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

联接条件 <joinCondition> 的类型 <conditionType> 无效,预期为“BOOLEAN”。

42K0E # MULTIPLE_TIME_TRAVEL_SPEC

不能同时在时间回溯子句和选项中指定时间回溯。

42K0E # MULTI_ALIAS_WITHOUT_GENERATOR

<expr> 不是生成器函数,因此不支持多部分别名 (<names>)。

42K0E # MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

表达式 <expr> 不支持多个源。

42K0E # NO_MERGE_ACTION_SPECIFIED

df.mergeInto 后面需要至少跟一个 whenMatched/whenNotMatched/whenNotMatchedBySource。

42K0E # UNSUPPORTED_EXPR_FOR_OPERATOR

查询操作符包含一个或多个不受支持的表达式。请考虑重写它以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。无效表达式:[<invalidExprSqls>]

42K0E # UNSUPPORTED_EXPR_FOR_PARAMETER

查询参数包含不受支持的表达式。参数可以是变量或字面量。无效表达式:[<invalidExprSql>]

42K0E # UNSUPPORTED_GENERATOR

不支持生成器

# MULTI_GENERATOR

每个 SELECT 子句只允许一个生成器,但找到了 <num> 个:<generators>

# NESTED_IN_EXPRESSIONS

嵌套在表达式 <expression> 中。

# NOT_GENERATOR

<functionName> 预期为生成器。然而,它的类是 <classCanonicalName>,这不是一个生成器。

# OUTSIDE_SELECT

在 SELECT 子句之外,发现:<plan>

42K0E # UNSUPPORTED_GROUPING_EXPRESSION

grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 一起使用。

42K0E # UNSUPPORTED_MERGE_CONDITION

MERGE 操作包含不受支持的 <condName> 条件。

# AGGREGATE

不允许聚合:<cond>

# NON_DETERMINISTIC

不允许非确定性表达式:<cond>

# SUBQUERY

不允许子查询:<cond>

42K0E # UNTYPED_SCALA_UDF

您正在使用无类型 Scala UDF,它没有输入类型信息。Spark 可能会盲目地将 null 传递给带有原始类型参数的 Scala 闭包,并且闭包将看到 null 参数的 Java 类型的默认值,例如 udf((x: Int) => x, IntegerType),对于 null 输入,结果是 0。要摆脱此错误,您可以:1. 使用有类型 Scala UDF API(不带返回类型参数),例如 udf((x: Int) => x)。2. 使用 Java UDF API,例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType),如果输入类型都不是原始类型。3. 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”并谨慎使用此 API。

42K0E # WINDOW_FUNCTION_AND_FRAME_MISMATCH

<funcName> 函数只能在带有单个偏移量的有序基于行的窗口帧中求值:<windowExpr>

42K0F # INVALID_TEMP_OBJ_REFERENCE

无法创建类型为 <obj> 的持久对象 <objName>,因为它引用了类型为 <tempObj> 的临时对象 <tempObjName>。请将临时对象 <tempObjName> 设为持久化,或将持久对象 <objName> 设为临时。

42K0G # PROTOBUF_DEPENDENCY_NOT_FOUND

找不到依赖项:<dependencyName>

42K0G # PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

读取路径为 <filePath> 的 Protobuf 描述符文件时出错。

42K0G # PROTOBUF_FIELD_MISSING

在 Protobuf 模式 <protobufSchema> 中搜索 <field> 得到了 <matchSize> 个匹配项。候选:<matches>

42K0G # PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

在 Protobuf 模式中找到了 <field>,但在 SQL 模式中没有匹配项。

42K0G # PROTOBUF_FIELD_TYPE_MISMATCH

字段类型不匹配:<field>

42K0G # PROTOBUF_MESSAGE_NOT_FOUND

无法在描述符中找到消息 <messageName>

42K0G # PROTOBUF_TYPE_NOT_SUPPORT

Protobuf 类型尚不支持:<protobufType>

42K0G # RECURSIVE_PROTOBUF_SCHEMA

在 Protobuf 模式中发现递归引用,Spark 默认无法处理:<fieldDescriptor>。请尝试将选项 recursive.fields.max.depth 1 设置为 10。不允许超过 10 级的递归。

42K0G # UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

无法将 SQL 类型 <toType> 转换为 Protobuf 类型 <protobufType>

42K0G # UNKNOWN_PROTOBUF_MESSAGE_TYPE

尝试将 <descriptorName> 视为消息,但它却是 <containingType>

42K0H # RECURSIVE_VIEW

检测到递归视图 <viewIdent>(循环:<newPath>)。

42K0I # SQL_CONF_NOT_FOUND

找不到 SQL 配置 <sqlConf>。请验证配置是否存在。

42K0K # INVALID_WITHIN_GROUP_EXPRESSION

带有 WITHIN GROUP 的函数 <funcName> 无效。

# DISTINCT_UNSUPPORTED

函数不支持带有 WITHIN GROUP 的 DISTINCT。

# MISMATCH_WITH_DISTINCT_INPUT

函数与 DISTINCT 和 WITHIN GROUP 一起调用,但表达式 <funcArg><orderingExpr> 不匹配。WITHIN GROUP 排序表达式必须从函数输入中选取。

# WITHIN_GROUP_MISSING

函数需要 WITHIN GROUP。

# WRONG_NUM_ORDERINGS

函数在 WITHIN GROUP 中需要 <expectedNum> 个排序,但得到了 <actualNum> 个。

42K0L # END_LABEL_WITHOUT_BEGIN_LABEL

结束标签 <endLabel> 不能没有开始标签。

42K0L # INVALID_LABEL_USAGE

标签 <labelName> 的使用无效。

# DOES_NOT_EXIST

标签在 <statementType> 语句中使用,但该标签不属于任何周围的块。

# ITERATE_IN_COMPOUND

ITERATE 语句不能与属于复合 (BEGIN...END) 主体的标签一起使用。

# QUALIFIED_LABEL_NAME

标签不能限定。

42K0L # LABELS_MISMATCH

开始标签 <beginLabel> 与结束标签 <endLabel> 不匹配。

42K0L # LABEL_ALREADY_EXISTS

标签 <label> 已存在。请选择其他名称或重命名现有标签。

42K0L # LABEL_NAME_FORBIDDEN

标签名 <label> 被禁用。

42K0M # INVALID_VARIABLE_DECLARATION

变量声明无效。

# NOT_ALLOWED_IN_SCOPE

此作用域中不允许声明变量 <varName>

# ONLY_AT_BEGINNING

变量 <varName> 只能在复合语句的开头声明。

# QUALIFIED_LOCAL_VARIABLE

变量 <varName> 必须在没有限定符的情况下声明,因为局部变量声明不允许使用限定符。

# REPLACE_LOCAL_VARIABLE

变量 <varName> 不支持 DECLARE OR REPLACE,因为局部变量无法替换。

42K0N # INVALID_EXTERNAL_TYPE

外部类型 <externalType> 对于表达式 <expr> 处的类型 <type> 无效。

42K0O # SCALAR_FUNCTION_NOT_COMPATIBLE

标量函数 <scalarFunc> 未使用自定义实现重写方法“produceResult(InternalRow)”。

42K0P # SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

标量函数 <scalarFunc> 未实现或重写方法“produceResult(InternalRow)”。

42K0Q # INVALID_HANDLER_DECLARATION

无效的处理程序声明。

# CONDITION_NOT_FOUND

未找到条件 <condition>

# DUPLICATE_CONDITION_IN_HANDLER_DECLARATION

在处理程序声明中发现重复条件 <condition>。请删除其中一个。

# DUPLICATE_SQLSTATE_IN_HANDLER_DECLARATION

在处理程序声明中发现重复的 sqlState <sqlState>。请删除其中一个。

# INVALID_CONDITION_COMBINATION

处理程序声明中的条件组合无效。SQLEXCEPTION 和 NOT FOUND 不能与其他条件/sqlstate 值一起使用。

# WRONG_PLACE_OF_DECLARATION

处理程序必须在变量/条件声明之后、其他语句之前声明。

42K0R # INVALID_ERROR_CONDITION_DECLARATION

无效的条件声明。

# NOT_AT_START_OF_COMPOUND_STATEMENT

条件 <conditionName> 只能在 BEGIN END 复合语句的开头声明。

# QUALIFIED_CONDITION_NAME

条件 <conditionName> 不能被限定。

# SPECIAL_CHARACTER_FOUND

在条件名称 <conditionName> 中发现特殊字符。只允许使用字母数字字符和下划线。

42KD0 # AMBIGUOUS_ALIAS_IN_NESTED_CTE

嵌套 CTE 中的名称 <name> 不明确。请将 <config> 设置为“CORRECTED”,以便内部 CTE 中定义的名称优先。如果设置为“LEGACY”,则外部 CTE 定义将优先。详见“<docroot>/sql-migration-guide.html#query-engine”。

42KD9 # CANNOT_MERGE_SCHEMAS

合并模式失败:初始模式:<left> 无法与初始模式合并的模式:<right>

42KD9 # UNABLE_TO_INFER_SCHEMA

无法推断 <format> 的模式。必须手动指定。

42KDE # CALL_ON_STREAMING_DATASET_UNSUPPORTED

无法在流式 Dataset/DataFrame 上调用方法 <methodName>

42KDE # CANNOT_CREATE_DATA_SOURCE_TABLE

创建数据源表 <tableName> 失败

# EXTERNAL_METADATA_UNSUPPORTED

提供程序“<provider>”不支持外部元数据,但提供了模式。请在创建表时删除模式。

42KDE # INVALID_WRITER_COMMIT_MESSAGE

数据源写入器生成了无效数量的提交消息。预期每个任务正好有一个写入器提交消息,但收到了 <detail>

42KDE # NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

流式 DataFrames/Datasets 上不支持 <windowFunc> 中的窗口函数(作为列 <columnName>)。结构化流只支持使用 WINDOW 函数进行时间窗口聚合。(窗口规范:<windowSpec>

42KDE # STREAMING_OUTPUT_MODE

无效的流式输出模式:<outputMode>

# INVALID

接受的输出模式为“Append”、“Complete”、“Update”。

# UNSUPPORTED_DATASOURCE

数据源 <className> 中不支持此输出模式。

# UNSUPPORTED_OPERATION

流式 DataFrames/DataSets 上的 <operation> 不支持此输出模式。

42KDF # XML_ROW_TAG_MISSING

以 XML 格式读取/写入文件时,需要 <rowTag> 选项。

42P01 # TABLE_OR_VIEW_NOT_FOUND

找不到表或视图 <relationName>。请验证模式和目录的拼写和正确性。如果您没有用模式限定名称,请验证 current_schema() 输出,或用正确的模式和目录限定名称。若要容忍删除时的错误,请使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。

42P01 # VIEW_NOT_FOUND

视图 <relationName> 未找到。请验证模式和目录的拼写及正确性。如果您未通过模式限定名称,请验证 current_schema() 的输出,或者使用正确的模式和目录限定名称。若要在删除时容忍此错误,请使用 DROP VIEW IF EXISTS。

42P02 # UNBOUND_SQL_PARAMETER

发现未绑定的参数:<name>。请修复 args 并提供参数到 SQL 字面量或集合构造函数(如 map()array()struct())的映射。

42P06 # SCHEMA_ALREADY_EXISTS

无法创建模式 <schemaName>,因为它已存在。请选择不同的名称,删除现有模式,或添加 IF NOT EXISTS 子句以容忍预先存在的模式。

42P07 # TABLE_OR_VIEW_ALREADY_EXISTS

无法创建表或视图 <relationName>,因为它已存在。请选择不同的名称,删除或替换现有对象,或添加 IF NOT EXISTS 子句以容忍预先存在的对象。

42P07 # TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

无法创建临时视图 <relationName>,因为它已存在。请选择不同的名称,删除或替换现有视图,或添加 IF NOT EXISTS 子句以容忍预先存在的视图。

42P07 # VIEW_ALREADY_EXISTS

无法创建视图 <relationName>,因为它已存在。请选择不同的名称,删除或替换现有对象,或添加 IF NOT EXISTS 子句以容忍预先存在的对象。

42P08 # CATALOG_NOT_FOUND

未找到目录 <catalogName>。请考虑将 SQL 配置 <config> 设置为目录插件。

42P10 # CLUSTERING_COLUMNS_MISMATCH

指定的集群与现有表 <tableName> 的集群不匹配。指定的集群列:[<specifiedClusteringString>]。现有集群列:[<existingClusteringString>]。

42P20 # MISSING_WINDOW_SPECIFICATION

未在 <windowName> 的 WINDOW 子句中定义窗口规范。有关 WINDOW 子句的更多信息,请参阅 '<docroot>/sql-ref-syntax-qry-select-window.html'。

42P20 # UNSUPPORTED_EXPR_FOR_WINDOW

窗口函数中不支持表达式 <sqlExpr>

42P21 # COLLATION_MISMATCH

无法确定字符串函数和运算符要使用的排序规则。

# EXPLICIT

由于显式排序规则不匹配而发生错误:[<explicitTypes>]。请选择一个显式排序规则并删除其他排序规则。

# IMPLICIT

由于隐式排序规则不匹配而发生错误:[<implicitTypes>]。请使用 COLLATE 函数显式设置排序规则。

42P22 # INDETERMINATE_COLLATION

无法确定字符串操作要使用的排序规则。请使用 COLLATE 子句显式设置排序规则。

42P22 # INDETERMINATE_COLLATION_IN_EXPRESSION

<expr> 的数据类型具有不确定排序规则。请使用 COLLATE 子句显式设置排序规则。

42P22 # INDETERMINATE_COLLATION_IN_SCHEMA

模式在以下位置包含不确定排序规则:[<columnPaths>]。请使用 COLLATE 子句显式设置排序规则。

42S22 # NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

无法在 Protobuf 模式中找到 <catalystFieldPath>

42S23 # PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

表达式 <expression> 必须在 'partitionedBy' 中。

46103 # CANNOT_LOAD_FUNCTION_CLASS

注册函数 <functionName> 时无法加载类 <className>,请确保它在类路径上。

46110 # CANNOT_MODIFY_CONFIG

无法修改 Spark 配置的值:<key>。另请参阅 '<docroot>/sql-migration-guide.html#ddl-statements'。

46121 # INVALID_COLUMN_NAME_AS_PATH

数据源 <datasource> 无法保存列 <columnName>,因为其名称包含文件路径中不允许的字符。请使用别名对其进行重命名。

46121 # INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

<fieldName> 不是有效的 Java 标识符,不能用作字段名 <walkedTypePath>

51024 # INCOMPATIBLE_VIEW_SCHEMA_CHANGE

视图 <viewName> 的 SQL 查询具有不兼容的模式更改,并且无法解析列 <colName>。预期有 <expectedNum> 个名为 <colName> 的列,但获得了 <actualCols>。请尝试通过运行以下命令重新创建视图:<suggestion>

53200 # UNABLE_TO_ACQUIRE_MEMORY

无法获取 <requestedBytes> 字节内存,已获取 <receivedBytes>

54000 # COLLECTION_SIZE_LIMIT_EXCEEDED

无法创建包含 <numberOfElements> 个元素的数组,因为其超过了数组大小限制 <maxRoundedArrayLength>

# FUNCTION

在函数 <functionName> 中创建数组失败。

# INITIALIZE

无法使用指定的参数初始化数组。

# PARAMETER

函数 <functionName> 中参数 <parameter> 的值无效。

54000 # GROUPING_SIZE_LIMIT_EXCEEDED

分组集大小不能大于 <maxSize>

54001 # FAILED_TO_PARSE_TOO_COMPLEX

该语句(包括潜在的 SQL 函数和引用的视图)过于复杂,无法解析。若要缓解此错误,请将语句划分为多个复杂度较低的块。

54006 # EXCEED_LIMIT_LENGTH

超出 char/varchar 类型长度限制:<limit>

54006 # KRYO_BUFFER_OVERFLOW

Kryo 序列化失败:<exceptionMsg>。为避免此问题,请增大“<bufferSizeConfKey>”的值。

54006 # TRANSPOSE_EXCEED_ROW_LIMIT

行数超过了 TRANSPOSE 的允许限制 <maxValues>。如果这是预期的,请将 <config> 设置为至少当前行计数。

54011 # TUPLE_SIZE_EXCEEDS_LIMIT

由于 Scala 对元组的支持有限,不支持包含 22 个以上元素的元组。

54023 # TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

表值函数的表参数过多。它允许一个表参数,但获得了:<num>。如果需要允许此操作,请将“spark.sql.allowMultipleTableArguments.enabled”设置为“true”

54K00 # VIEW_EXCEED_MAX_NESTED_DEPTH

视图 <viewName> 的深度超过了最大视图解析深度 (<maxNestedDepth>)。分析已中止以避免错误。如果需要解决此问题,请尝试增加“spark.sql.view.maxNestedViewDepth”的值。

56000 # CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

未找到检查点块 <rddBlockId>!可能是最初检查此分区的执行器不再活跃,或者原始 RDD 未持久化。如果此问题仍然存在,可以考虑改用 rdd.checkpoint(),它比本地检查点慢但更容错。

56038 # CODEC_NOT_AVAILABLE

编解码器 <codecName> 不可用。

# WITH_AVAILABLE_CODECS_SUGGESTION

可用编解码器为 <availableCodecs>

# WITH_CONF_SUGGESTION

请考虑将配置 <configKey> 设置为 <configVal>

56038 # FEATURE_NOT_ENABLED

功能 <featureName> 未启用。请考虑将配置 <configKey> 设置为 <configValue> 以启用此功能。

56038 # GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

Hive 2.2 及更低版本不支持 getTablesByType。请使用 Hive 2.3 或更高版本。

56038 # INCOMPATIBLE_DATASOURCE_REGISTER

检测到不兼容的 DataSourceRegister。请从类路径中删除不兼容的库或升级它。错误:<message>

56K00 # CONNECT

一般 Spark Connect 错误。

# INTERCEPTOR_CTOR_MISSING

无法实例化 GRPC 拦截器,因为 <cls> 缺少无参数的默认构造函数。

# INTERCEPTOR_RUNTIME_ERROR

实例化 GRPC 拦截器时出错:<msg>

# PLUGIN_CTOR_MISSING

无法实例化 Spark Connect 插件,因为 <cls> 缺少无参数的默认构造函数。

# PLUGIN_RUNTIME_ERROR

实例化 Spark Connect 插件时出错:<msg>

# SESSION_NOT_SAME

两个数据集必须属于同一个 SparkSession。

58030 # CANNOT_LOAD_STATE_STORE

加载状态时发生错误。

# CANNOT_FIND_BASE_SNAPSHOT_CHECKPOINT

无法找到具有 lineage: <lineage> 的基本快照检查点。

# CANNOT_READ_CHECKPOINT

无法读取 RocksDB 检查点元数据。预期版本为 <expectedVersion>,但找到了 <actualVersion>

# CANNOT_READ_DELTA_FILE_KEY_SIZE

读取 <clazz> 的增量文件 <fileToRead> 时出错:键大小不能为 <keySize>

# CANNOT_READ_DELTA_FILE_NOT_EXISTS

读取 <clazz> 的增量文件 <fileToRead> 时出错:<fileToRead> 不存在。

# CANNOT_READ_MISSING_SNAPSHOT_FILE

读取 <clazz> 的快照文件 <fileToRead> 时出错:<fileToRead> 不存在。

# CANNOT_READ_SNAPSHOT_FILE_KEY_SIZE

读取 <clazz> 的快照文件 <fileToRead> 时出错:键大小不能为 <keySize>

# CANNOT_READ_SNAPSHOT_FILE_VALUE_SIZE

读取 <clazz> 的快照文件 <fileToRead> 时出错:值大小不能为 <valueSize>

# CANNOT_READ_STREAMING_STATE_FILE

读取流式状态文件 <fileToRead> 时出错:该文件不存在。如果流作业使用新的或更新的状态操作重新启动,请创建新的检查点位置或清除现有检查点位置。

# HDFS_STORE_PROVIDER_OUT_OF_MEMORY

由于内存不足异常,无法加载 ID 为 <stateStoreId> 的 HDFS 状态存储。

# INVALID_CHANGE_LOG_READER_VERSION

更改日志读取器版本不能为 <version>。检查点可能来自未来的 Spark 版本,请升级您的 Spark。

# INVALID_CHANGE_LOG_WRITER_VERSION

更改日志写入器版本不能为 <version>

# ROCKSDB_STORE_PROVIDER_OUT_OF_MEMORY

由于内存不足异常,无法加载 ID 为 <stateStoreId> 的 RocksDB 状态存储。

# SNAPSHOT_PARTITION_ID_NOT_FOUND

<checkpointLocation> 处未找到操作符 <operatorId> 状态的分区 ID <snapshotPartitionId>

# UNCATEGORIZED
# UNEXPECTED_FILE_SIZE

已将 <dfsFile> 复制到 <localFile>,预期大小为 <expectedSize> 字节,但实际为 <localFileSize> 字节。

# UNEXPECTED_VERSION

版本不能为 <version>,因为它小于 0。

# UNRELEASED_THREAD_ERROR

<loggingId>: RocksDB 实例无法由 <newAcquiredThreadInfo> 获取,用于 operationType=<operationType>,因为它在 <timeWaitedMs> 毫秒后未由 <acquiredThreadInfo> 释放。持有锁的线程堆栈跟踪:<stackTraceOutput>

58030 # CANNOT_RESTORE_PERMISSIONS_FOR_PATH

无法将已创建路径 <path> 的权限重新设置为 <permission>

58030 # CANNOT_WRITE_STATE_STORE

为提供程序 <providerClass> 写入状态存储文件时出错。

# CANNOT_COMMIT

状态检查点期间无法执行提交。

58030 # FAILED_RENAME_TEMP_FILE

无法将临时文件 <srcPath> 重命名为 <dstPath>,因为 FileSystem.rename 返回 false。

58030 # INVALID_BUCKET_FILE

无效的存储桶文件:<path>

58030 # TASK_WRITE_FAILED

<path> 写入行时任务失败。

58030 # UNABLE_TO_FETCH_HIVE_TABLES

无法获取 Hive 数据库 <dbName> 的表。

F0000 # INVALID_DRIVER_MEMORY

系统内存 <systemMemory> 必须至少为 <minSystemMemory>。请使用 --driver-memory 选项或 Spark 配置中的“<config>”来增加堆大小。

F0000 # INVALID_EXECUTOR_MEMORY

执行器内存 <executorMemory> 必须至少为 <minSystemMemory>。请使用 --executor-memory 选项或 Spark 配置中的“<config>”来增加执行器内存。

F0000 # INVALID_KRYO_SERIALIZER_BUFFER_SIZE

配置“<bufferSizeConfKey>”的值必须小于 2048 MiB,但获得了 <bufferSizeConfValue> MiB。

HV000 # FAILED_JDBC

JDBC <url> 在操作时失败

# ALTER_TABLE

更改表 <tableName>

# CREATE_INDEX

<tableName> 表中创建索引 <indexName>

# CREATE_NAMESPACE

创建命名空间 <namespace>

# CREATE_NAMESPACE_COMMENT

为命名空间创建注释:<namespace>

# CREATE_TABLE

创建表 <tableName>

# DROP_INDEX

删除 <tableName> 表中的索引 <indexName>

# DROP_NAMESPACE

删除命名空间 <namespace>

# GET_TABLES

从命名空间获取表:<namespace>

# LIST_NAMESPACES

列出命名空间。

# LOAD_TABLE

加载表 <tableName>

# NAMESPACE_EXISTS

检查命名空间 <namespace> 是否存在。

# REMOVE_NAMESPACE_COMMENT

删除命名空间上的注释:<namespace>

# RENAME_TABLE

将表 <oldName> 重命名为 <newName>

# TABLE_EXISTS

检查表 <tableName> 是否存在。

# UNCLASSIFIED

<message>

HV091 # NONEXISTENT_FIELD_NAME_IN_LIST

字段 <nonExistFields> 不存在。可用字段:<fieldNames>

HY000 # INVALID_HANDLE

句柄 <handle> 无效。

# FORMAT

句柄必须是格式为 '00112233-4455-6677-8899-aabbccddeeff' 的 UUID 字符串

# OPERATION_ABANDONED

操作因不活动而被视为已放弃并已删除。

# OPERATION_ALREADY_EXISTS

操作已存在。

# OPERATION_NOT_FOUND

未找到操作。

# SESSION_CHANGED

现有 Spark 服务器驱动程序实例已重新启动。请重新连接。

# SESSION_CLOSED

会话已关闭。

# SESSION_NOT_FOUND

未找到会话。

HY000 # MISSING_TIMEOUT_CONFIGURATION

操作已超时,但未配置超时持续时间。若要设置基于处理时间的超时,请在 'mapGroupsWithState' 或 'flatMapGroupsWithState' 操作中使用 'GroupState.setTimeoutDuration()'。若要设置基于事件时间的超时,请使用 'GroupState.setTimeoutTimestamp()' 并使用 'Dataset.withWatermark()' 定义水印。

HY008 # OPERATION_CANCELED

操作已取消。

HY109 # INVALID_CURSOR

游标无效。

# DISCONNECTED

游标已被服务器断开连接。

# NOT_REATTACHABLE

游标无法重新附加。

# POSITION_NOT_AVAILABLE

游标位置 ID <responseId> 在索引 <index> 处不再可用。

# POSITION_NOT_FOUND

未找到游标位置 ID <responseId>

KD000 # FAILED_REGISTER_CLASS_WITH_KRYO

无法向 Kryo 注册类。

KD000 # GRAPHITE_SINK_INVALID_PROTOCOL

无效的 Graphite 协议:<protocol>

KD000 # GRAPHITE_SINK_PROPERTY_MISSING

Graphite 接收器需要“<property>”属性。

KD000 # INCOMPATIBLE_DATA_FOR_TABLE

无法为表 <tableName> 写入不兼容的数据

# AMBIGUOUS_COLUMN_NAME

输入数据 <colName> 中存在模糊的列名。

# CANNOT_FIND_DATA

无法找到输出列 <colName> 的数据。

# CANNOT_SAFELY_CAST

无法安全地将 <colName> <srcType> 强制转换为 <targetType>

# EXTRA_COLUMNS

无法写入额外列 <extraColumns>

# EXTRA_STRUCT_FIELDS

无法将额外字段 <extraFields> 写入结构体 <colName>

# NULLABLE_ARRAY_ELEMENTS

无法将可为空元素写入非空数组:<colName>

# NULLABLE_COLUMN

无法将可为空值写入非空列 <colName>

# NULLABLE_MAP_VALUES

无法将可为空值写入非空映射:<colName>

# STRUCT_MISSING_FIELDS

结构体 <colName> 缺少字段:<missingFields>

# UNEXPECTED_COLUMN_NAME

结构体 <colName><order> 个字段名称不匹配(可能乱序):预期 <expected>,找到 <found>

KD000 # MALFORMED_CSV_RECORD

格式错误的 CSV 记录:<badRecord>

KD001 # FAILED_READ_FILE

读取文件 <path> 时遇到错误。

# FILE_NOT_EXIST

文件不存在。底层文件可能已更新。您可以通过在 SQL 中运行“REFRESH TABLE tableName”命令或重新创建相关数据集/数据帧来显式使 Spark 中的缓存失效。

# NO_HINT
# PARQUET_COLUMN_DATA_TYPE_MISMATCH

读取 Parquet 列 <column> 时数据类型不匹配。预期的 Spark 类型为 <expectedType>,实际的 Parquet 类型为 <actualType>

# UNSUPPORTED_FILE_SYSTEM

文件系统 <fileSystemClass> 未实现 <method>

KD002 # INVALID_LOG_VERSION

不支持的日志版本。

# EXACT_MATCH_VERSION

唯一受支持的日志版本是 v<matchVersion>,但遇到了 v<version>

# MAX_SUPPORTED_VERSION

最大受支持的日志版本是 v<maxSupportedVersion>,但遇到了 v<version>。该日志文件是由较新版本的 Spark 生成的,此版本无法读取。您需要升级。

KD002 # MALFORMED_LOG_FILE

日志文件格式错误:无法从 <text> 读取正确的日志版本。

KD005 # ALL_PARTITION_COLUMNS_NOT_ALLOWED

无法将所有列用于分区列。

KD006 # STDS_COMMITTED_BATCH_UNAVAILABLE

未找到已提交的批处理,检查点位置:<checkpointLocation>。请确保查询已运行并提交了任何微批处理,然后才停止。

KD006 # STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

该状态没有任何分区。请仔细检查查询是否指向有效状态。选项:<sourceOptions>

KD006 # STDS_OFFSET_LOG_UNAVAILABLE

<batchId> 的偏移日志不存在,检查点位置:<checkpointLocation>。请指定可查询的批 ID - 您可以通过使用状态元数据数据源查询可用的批 ID。

KD006 # STDS_OFFSET_METADATA_LOG_UNAVAILABLE

<batchId> 的偏移日志元数据不可用,检查点位置:<checkpointLocation>。检查点似乎只在旧版 Spark 上运行过。请使用最新版本的 Spark 运行流式查询,以便 Spark 构造状态元数据。

KD009 # CONFLICTING_DIRECTORY_STRUCTURES

检测到冲突的目录结构。可疑路径:<discoveredBasePaths> 如果提供的路径是分区目录,请在数据源选项中设置“basePath”以指定表的根目录。如果存在多个根目录,请单独加载它们,然后进行联合。

KD009 # CONFLICTING_PARTITION_COLUMN_NAMES

检测到冲突的分区列名:<distinctPartColLists> 对于分区表目录,数据文件应仅存在于叶目录中。并且同一级别的目录应具有相同的分区列名。请检查以下目录中是否存在意外文件或不一致的分区列名:<suspiciousPaths>

KD00B # ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

读取 Avro 数据时出错 -- 遇到未知指纹:<fingerprint>,不确定要使用哪个模式。这可能发生在启动 Spark 上下文后注册了额外模式的情况下。

KD010 # DATA_SOURCE_EXTERNAL_ERROR

保存到外部数据源时遇到错误。

P0001 # USER_RAISED_EXCEPTION

<errorMessage>

P0001 # USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

raise_error() 函数用于引发错误类:<errorClass>,其需要参数:<expectedParms>。提供的参数 <providedParms> 与预期参数不匹配。请确保提供所有预期参数。

P0001 # USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

raise_error() 函数用于引发未知错误类:<errorClass>

XX000 # AMBIGUOUS_RESOLVER_EXTENSION

单次分析器无法处理此查询或命令,因为 <operator> 的扩展选择不明确:<extensions>

XX000 # CONNECT_ML

一般 Spark Connect ML 错误。

# ATTRIBUTE_NOT_ALLOWED

不允许访问 <className> 中的 <attribute>

# CACHE_INVALID

无法从 ML 缓存中检索 <objectName>。可能是因为该条目已被驱逐。

# UNSUPPORTED_EXCEPTION

<message>

XX000 # HYBRID_ANALYZER_EXCEPTION

尝试使用旧式定点分析器和单次解析器解析查询或命令时发生故障。

# FIXED_POINT_FAILED_SINGLE_PASS_SUCCEEDED

定点解析失败,但单次解析成功。单次分析器输出:<singlePassOutput>

# LOGICAL_PLAN_COMPARISON_MISMATCH

定点分析器和单次分析器的输出不匹配。定点分析器输出:<fixedPointOutput> 单次分析器输出:<singlePassOutput>

# OUTPUT_SCHEMA_COMPARISON_MISMATCH

定点分析器和单次分析器的输出模式不匹配。定点分析器输出模式:<fixedPointOutputSchema> 单次分析器输出模式:<singlePassOutputSchema>

XX000 # MALFORMED_PROTOBUF_MESSAGE

在消息反序列化中检测到格式错误的 Protobuf 消息。解析模式:<failFastMode>。若要将格式错误的 Protobuf 消息处理为 null 结果,请尝试将选项“mode”设置为“PERMISSIVE”。

XX000 # MISSING_ATTRIBUTES

操作符 <operator> 中,从 <input> 缺少已解析的属性 <missingAttributes>

# RESOLVED_ATTRIBUTE_APPEAR_IN_OPERATION

操作中出现同名属性:<operation>。请检查是否使用了正确的属性。

# RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
XX000 # STATE_STORE_KEY_ROW_FORMAT_VALIDATION_FAILURE

流式查询未能验证键行的写入状态。这可能由以下原因导致:1. 旧版 Spark 写入的检查点与当前版本不兼容 2. 检查点文件已损坏 3. 查询在重启之间以不兼容的方式发生更改。对于第一种情况,请使用新的检查点目录或使用原始 Spark 版本处理流式状态。检索到的错误消息=<errorMsg>

XX000 # STATE_STORE_VALUE_ROW_FORMAT_VALIDATION_FAILURE

流式查询未能验证值行的写入状态。这可能由以下原因导致:1. 旧版 Spark 写入的检查点与当前版本不兼容 2. 检查点文件已损坏 3. 查询在重启之间以不兼容的方式发生更改。对于第一种情况,请使用新的检查点目录或使用原始 Spark 版本处理流式状态。检索到的错误消息=<errorMsg>

XXKD0 # INVALID_SQL_FUNCTION_PLAN_STRUCTURE

无效的 SQL 函数计划结构 <plan>

XXKD0 # PLAN_VALIDATION_FAILED_RULE_EXECUTOR

<ruleExecutor> 的输入计划无效:<reason>

XXKD0 # PLAN_VALIDATION_FAILED_RULE_IN_BATCH

批次 <batch> 中的规则 <rule> 生成了无效计划:<reason>

XXKDA # SPARK_JOB_CANCELLED

作业 <jobId> 已取消 <reason>

XXKST # STATE_STORE_INVALID_VALUE_SCHEMA_EVOLUTION

模式演变不可能实现 新的 value_schema=<newValueSchema> 和旧的 value_schema=<oldValueSchema>。请查看 https://avro.apache.org/docs/1.11.1/specification/_print/#schema-resolution 以了解有效模式演变。

XXKST # STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE

提供的键模式与现有状态键模式不匹配。请检查字段的数量和类型。现有 key_schema=<storedKeySchema> 和新 key_schema=<newKeySchema>。如果需要强制运行查询而不进行模式验证,请将 spark.sql.streaming.stateStore.stateSchemaCheck 设置为 false。但请注意,使用不兼容模式运行查询可能导致非确定性行为。

XXKST # STATE_STORE_OPERATION_OUT_OF_ORDER

流式有状态操作符尝试乱序访问状态存储。这是一个错误,请重试。error_msg=<errorMsg>

XXKST # STATE_STORE_UNSUPPORTED_OPERATION

<operationType> 操作不支持 <entity>

XXKST # STATE_STORE_UNSUPPORTED_OPERATION_BINARY_INEQUALITY

状态存储不支持二进制不等式列。提供的模式:<schema>

XXKST # STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE

提供的值模式与现有状态值模式不匹配。请检查字段的数量和类型。现有 value_schema=<storedValueSchema> 和新 value_schema=<newValueSchema>。如果需要强制运行查询而不进行模式验证,请将 spark.sql.streaming.stateStore.stateSchemaCheck 设置为 false。但请注意,使用不兼容模式运行查询可能导致非确定性行为。

XXKST # STDS_INTERNAL_ERROR

内部错误:<message>。请将此 bug 报告给相应的社区或供应商,并提供完整的堆栈跟踪。

XXKST # STREAMING_PYTHON_RUNNER_INITIALIZATION_FAILURE

流式运行程序初始化失败,返回 <resFromPython>。原因:<msg>

XXKST # STREAM_FAILED

查询 [id = <id>,runId = <runId>] 因异常终止:<message>

XXKST # TRANSFORM_WITH_STATE_SCHEMA_MUST_BE_NULLABLE

如果启用了 Avro 编码,在使用 TransformWithState 操作符时,列族 <columnFamilyName> 模式中的所有字段都必须可为空。请使模式可为空。当前模式:<schema>

XXKUC # INSUFFICIENT_TABLE_PROPERTY

找不到表属性

# MISSING_KEY

<key>.

# MISSING_KEY_PART

预期有 <key><totalAmountOfParts> 个部分。