
spark报错处理
文章平均质量分 60
芹菜学长
一个p大点事儿都能发文章的人
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【Spark报错】CDH的spark无法读取字段中含有特殊字符“-“的orc表mismatched input ‘-‘ expecting ‘:‘
背景故事先看报错信息:mismatched input ‘-’ expecting ‘:’报错的意思就是说,在这个表里面,字段名中存在特殊符号“-”,无法解析报错。这个问题会发生在CDH的spark中。如果不是CDH的spark版本的程序,可以跳过此文章。解决方案:不要使用CDH版本的spark就好了。比如我这里出现报错的时候,使用的版本是2.4.0-cdh6.1.1 那么把这个版本修改为2.4.0就好了。过程分析过程早就分析完了,下面写一篇结果:环境版本spark-sql_2.11原创 2022-05-28 13:55:16 · 5289 阅读 · 0 评论 -
Spark 连接kafka报错: Error while fetching metadata with correlation id xx [topicName=INVALID_REPLICATIO]
问题来源同事在一次spark程序中,通过spark在kafka中的topic中写入数据发生报错,错误日志如下:2021-01-25 19:58:11,794 INFO utils.AppInfoParser: Kafka version : 2.0.0-cdh6.1.12021-01-25 19:58:11,794 INFO utils.AppInfoParser: Kafka commitId : null2021-01-25 19:58:11,984 INFO codegen.CodeGener原创 2021-01-25 22:53:25 · 8807 阅读 · 2 评论 -
Spark报错: java.lang.UnsupportedOperationException: Unimplemented type:LongType
Spark报错: java.lang.UnsupportedOperationException: Unimplemented type:LongType记录一下Spark报错,好记性不如烂笔头背景:spark程序读取数据报错打开下面是spark的报错信息测试代码是:spark.read.parquet(path).show()原因:这个问题是目录里面的parquet文件的schema信息不一致导致的,详细的原因是:目录下面的多个parquet文件中的字段个数和字段的名称是一致的。但是有一个原创 2020-06-29 12:09:28 · 1908 阅读 · 3 评论 -
Spark报错:Detected cartesian product for LEFT OUTER join between logical plans
[Spark报错]:Detected cartesian product for LEFT OUTER join between logical plansFBI warning:xian si kao yao bu yao di ka er cha xun, If true Then return注意:先思考一下自己sql语句是不是真的需要笛卡尔查询,如果是的话,本文跳过开门见山测试程序...原创 2020-01-10 18:55:30 · 15352 阅读 · 0 评论 -
Spark存储parquet报错:Column: [xxxx], Expected: int, Found: INT64
Spark存储parquet报错:Expected: int, Found: INT64原因:hadoop上面有一个文件夹里面存储的dataFrame中的一个列名为a的字段类型为IntegerType读取mysql中对应的表的时候相同列名a字段的类型是LongType写入parquet的时候类型变为IntegerType看起来没有什么大问题,但是之前的文件夹中的IntegerType是32位...原创 2019-12-19 10:19:28 · 3423 阅读 · 0 评论 -
spark报错:java.lang.ClassNotFoundException: org.apache.parquet.Log
spark启动报错:java.lang.ClassNotFoundException: org.apache.parquet.Log错误的全部描述如下:java.util.ServiceConfigurationError: org.apache.spark.sql.sources.DataSourceRegister: Provider org.apache.spark.sql.execut...原创 2019-09-04 17:20:45 · 4300 阅读 · 0 评论