过程参考
https://blog.csdn.net/u011521890/article/details/78577582
安装jdk(注意与spark版本对应,不要用太旧的版本)
安装scala
安装spark(要与jdk版本兼容)
安装hadoop(要与spark版本对应)
下载winutils.exe(要与hadoop版本对应)
例如,你安装的hadoop版本是2.7.5;那么你应当去下载hadoop-2.7.0以上版本的bin,然后用下载得到的bin文件夹替换原来hadoop路径下的bin文件夹。