Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

在windows系统本地运行spark的wordcount程序,会出现一个异常,但不影响现有程序运行。

在这里插入图片描述
发现是因为在Windows环境中缺少winutils.exe程序。
因为一般情况下Hadoop、spark都是运行在Linux系统下的,在windows下运行时需要安装Windows下运行的支持插件:hadoop2.7-common-bin。

原因分析 :https://www.cnblogs.com/tijun/p/7567664.html

解决办法

1、下载spark 依赖对应的hadoop版本,我的spark版本是3.0 对应的 hadoop选择 3.0.0即可。
http://hadoop.apache.org/releases.html

2.解压配置环境变量
在这里插入图片描述
在这里插入图片描述

下载地址:https://github.com/cdarlint/winutils
下载对应的版本这两个文件,放到hadoop 的bin 目录下。
在这里插入图片描述
如图:
在这里插入图片描述
bingo,问题解决!

  • 11
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值