最近再操作学习spark的时候遇到的问题现在这儿记录下来以便后期沉淀一下。如有和我一样现象的同学朋友们多多注意一下。
首先再成这个异常的原因相信大家都查询了很多资料造成的原因主要就是Scala版本和Spark版本不匹配造成的。
解决办法首先
进入项目设置然后查看其中对应的Scala版本。
然后再去pom表里边查看你引入的Spark版本
最后查看是否匹配不匹配的话更改一下pom表或者idea引入的Scala版本就好(切记不要引入两个版本做人要专一,为什么我会知道这个问题?我也不想知道我为什么知道这个问题。)。当然一般人到这边也就结束了,我为了我以后好查看肯定不能这么就结束了。不然我咋知道他们两个的版本对照?我以后还要再重新查一遍Scala和Spark的版本对照浪费自己时间是可耻的。
所以,这里给自己留下证据让自己以后好找。
这是地址图片看不了自己链接过去看:
https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11