发现问题
今天提交任务(spark-submit),前面读取任务都十分的顺利
只是跑到这个部分的时候,就开始疯狂报错
反复提交了好几遍
总觉得哪里有点问题
java.lang.NoClassDefFoundError: scala/runtime/LambdaDeserialize
![报错部分](https://i-blog.csdnimg.cn/blog_migrate/ee9aa0f95e0b1d6af3dcc4bba700d26a.png)
寻找问题
原来我的pom文件配置有点小问题,上次本地测试数据的时候把配置改成本地版本了
![本地pom配置](https://i-blog.csdnimg.cn/blog_migrate/8582320ba7258ddaf66d61fb565016ae.png)
解决问题
把pom文件配置改成和集群相同的![改成和集群相同的pom配置](https://i-blog.csdnimg.cn/blog_migrate/f16bdeba7f128408b04271c2fbf54025.png)
最终结果![成功标识](https://i-blog.csdnimg.cn/blog_migrate/fdeb7f1280e583f1e4a8ad334860ac15.png)
最终这个任务成功的跑完了!
总结
1.保持自己的scala,spark本地版本和公司的集群版本一致
2.每次打包之前检查一下自己的pom文件版本是否一致