如果是第一次使用Spark,运行简单的demo,本地又没有安装Hadoop的配置环境,会报错,报winutils.exe 不存在
解决思路如下:
1安装Hadoop,从官网下载对应的版本
2解压到本地
3配置环境变量
4、从网上下载winutils的工具,可以从github上下载
5、解压,替换掉hadoop的bin目录
6、因为window比较傻逼,环境变量不生效,可以重启电脑
7、再次执行Spark程序
如果是第一次使用Spark,运行简单的demo,本地又没有安装Hadoop的配置环境,会报错,报winutils.exe 不存在
解决思路如下:
1安装Hadoop,从官网下载对应的版本
2解压到本地
3配置环境变量
4、从网上下载winutils的工具,可以从github上下载
5、解压,替换掉hadoop的bin目录
6、因为window比较傻逼,环境变量不生效,可以重启电脑
7、再次执行Spark程序