笔者用的是1.6的老版本spark,在本地环境用的是2.11.8来完成代码编译,但是提交到集群跑的时候,报了上图的错。
查了一下,1.6的spark默认是用2.10的scala来编译的,而我本地用的是2.11,所以就出现了如上错误。
解决也很简单,将本地的scala环境换成scala2.10的就完事了。
scala:spark版本导致的错误
最新推荐文章于 2024-05-03 13:10:58 发布
笔者用的是1.6的老版本spark,在本地环境用的是2.11.8来完成代码编译,但是提交到集群跑的时候,报了上图的错。
查了一下,1.6的spark默认是用2.10的scala来编译的,而我本地用的是2.11,所以就出现了如上错误。
解决也很简单,将本地的scala环境换成scala2.10的就完事了。