1、未加载到主类
这个问题有很多原因,我的原因是项目缺少.iml文件
删除.idea文件夹重新编译build
还有可能情况是项目的scala文件夹是否设置为source源
2、winutils.exe导致的报错
在window下本地运行spark需要系统中安装了hadoop,并且在hadoop/bin目录下有winutils.exe文件
3、\tmp\hive 没有写权限
这个因为本地运行spark项目用到了hive所以需要配置hive的默认数据目录\tmp\hive
winutils.exe chmod d:\tmp\hive