今天跑一条统计的SQL出现Caused by: org.apache.hadoop.hive.ql.metadata.HiveException: Hive Runtime Error while processing row (tag=0) {“key”:错误

报出的异常是说group by数字格式异常,后来核查了一下SQL发现group by后面出现了重复。

个人觉得报出这样的异常是由于sparksql转化成物理计划时会对所有字段进行新的编码比如:_col0、_col1。由于是同一个,导致字段值误认为是编码
hive报metadata.HiveException: Hive Runtime Error while processing row (tag=0)错误
最新推荐文章于 2024-11-11 09:49:30 发布
3054

被折叠的 条评论
为什么被折叠?



