我这里是直接SparkConf对象的setAppName方法就报错
错误原因是:spark的版本与scala的版本有冲突
spark使用的是2.4.8
scala使用的是2.12.8
虽然Maven中写了2.4.8对应的版本是2.11和2.12,但是还是报错了,于是我就改成了scala版本为2.11即可
去Maven仓库查看spark对应的scala版本
这里
04-18
2782
![](https://csdnimg.cn/release/blogv2/dist/pc/img/readCountWhite.png)
11-10
794
![](https://csdnimg.cn/release/blogv2/dist/pc/img/readCountWhite.png)
04-10
717
![](https://csdnimg.cn/release/blogv2/dist/pc/img/readCountWhite.png)