目录
3. 安装并配置插件(我这里还是Linux版的hadoop安装包,我们只需要下载一个winutils.exe文件即可)
1 问题:windows上运行spark代码时候报错
2. 问题解决:
仔细查看报错是缺少winutils.exe程序。
Hadoop都是运行在Linux系统下的,在windows下eclipse中运行mapreduce程序,要首先安装Windows下运行的支持插件(我的是hadoop2.7.4)
3. 安装并配置插件(我这里还是Linux版的hadoop安装包,我们只需要下载一个winutils.exe文件即可)
免费,免费,免费下载传送门,多评论多支持,让大家少走弯路(https://download.csdn.net/download/sdrfengmi/12519507)
4.直接把解压出来的所有文件放到hadoop解压包下
5.配置好hadoop的环境变量
如果能够解决您的问题,那是再好不过(✿◠‿◠) 。如果没有顺利的解决你的问题,那么请将您的问题留言给我~~~~~~~
再次感谢您能够浏览到这里,如有遗漏或错误,敬请斧正
免费,免费,免费下载,评论多多支持,让大家少走弯路