关于IDEA出现报错: java.io.FileNotFoundException HADOOP_HOME and hadoop.home.dir are unset

今天在跑wc的时候,代码仔细确认很多遍没有问题,但就是一直报错如下:

Exceptioninthread"main"java.lang.RuntimeException:java.io.FileNotFoundException:java.io.FileNotFoundException:HADOOP_HOMEandhadoop.home.dirareunset.-seehttps://wiki.apache.org/hadoop/WindowsProblems
atorg.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:736)
atorg.apache.hadoop.util.Shell.getSetPermissionCommand(Shell.java:271)
atorg.apache.hadoop.util.Shell.getSetPermissionCommand(Shell.java:287)
atorg.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:867)
atorg.apache.hadoop.fs.RawLocalFileSystem.mkOneDirWithMode(RawLocalFileSystem.java:549)
atorg.apache.hadoop.fs.RawLocalFileSystem.mkdirsWithOptionalPermission(RawLocalFileSystem.java:589)
atorg.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:561)
atorg.apache.hadoop.fs.RawLocalFileSystem.mkdirsWithOptionalPermission(RawLocalFileSystem.java:588)
atorg.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:566)
atorg.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:332)
atorg.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:162)
atorg.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:113)
atorg.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:148)
atorg.apache.hadoop.mapreduce.Job$11.run(Job.java:1565)
atorg.apache.hadoop.mapreduce.Job$11.run(Job.java:1562)
atjava.security.AccessController.doPrivileged(NativeMethod)
atjavax.security.auth.Subject.doAs(Subject.java:422)
atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1762)
atorg.apache.hadoop.mapreduce.Job.submit(Job.java:1562)
atorg.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1583)
atcom.ruozedata.hadoop.mapreduce.wc.WordCountDriver.main(WordCountDriver.java:46)
Causedby:java.io.FileNotFoundException:java.io.FileNotFoundException:HADOOP_HOMEandhadoop.home.dirareunset.-seehttps://wiki.apache.org/hadoop/WindowsProblems
atorg.apache.hadoop.util.Shell.fileNotFoundException(Shell.java:548)
atorg.apache.hadoop.util.Shell.getHadoopHomeDir(Shell.java:569)
atorg.apache.hadoop.util.Shell.getQualifiedBin(Shell.java:592)
atorg.apache.hadoop.util.Shell.(Shell.java:689)
atorg.apache.hadoop.util.StringUtils.(StringUtils.java:78)
atorg.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1665)
atorg.apache.hadoop.security.SecurityUtil.setConfigurationInternal(SecurityUtil.java:104)
atorg.apache.hadoop.security.SecurityUtil.(SecurityUtil.java:88)
atorg.apache.hadoop.security.UserGroupInformation.initialize(UserGroupInformation.java:316)
atorg.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:304)
atorg.apache.hadoop.security.UserGroupInformation.doSubjectLogin(UserGroupInformation.java:1860)
atorg.apache.hadoop.security.UserGroupInformation.createLoginUser(UserGroupInformation.java:718)
atorg.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGroupInformation.java:668)
atorg.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGroupInformation.java:579)
atorg.apache.hadoop.mapreduce.task.JobContextImpl.(JobContextImpl.java:72)
atorg.apache.hadoop.mapreduce.Job.(Job.java:150)
atorg.apache.hadoop.mapreduce.Job.getInstance(Job.java:193)
atcom.ruozedata.hadoop.mapreduce.wc.WordCountDriver.main(WordCountDriver.java:21)
Causedby:java.io.FileNotFoundException:HADOOP_HOMEandhadoop.home.dirareunset.
atorg.apache.hadoop.util.Shell.checkHadoopHomeInner(Shell.java:468)
atorg.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:439)
atorg.apache.hadoop.util.Shell.(Shell.java:516)
…14more

问题扣出来就是:

问题原因:

日志描述内容就是,没有设置 HADOOP_HOME 和 hadoop.home.dir 两项。而这两项就是配置在本地环境变量中的 Hadoop 地址,也就是需要我们在本地搭建Hadoop环境。

解决办法:

一、如果是远程连接Linux上的Hadoop集群,是不需要在本地再下载hadoop,只要下载winutils文件,然后配置环境变量,最后再把hadoop.dll文件放到 C:/windows/system32 下就可以了(我亲测的也是这个)

二、hadoop运行在windows系统上的,也是要下载winutils文件,然后配置环境变量,比上面多出一步就是,需要把你下的winutils文件下你需要的Hadoop版本的bin目录文件替换你**windows系统之前使用的Hadoop版本的bin目录文件,**最后同样是把hadoop.dll文件放C:/windows/system32 下就可以(这个解决步骤在最后面)

解决步骤(一):

1.下载winutils文件

GitHub - steveloughran/winutils: Windows binaries for Hadoop versions (built from the git commit ID used for the ASF relase)

点击绿色的Code按钮,再选择Download Zip下载

2.选择版本

如果没有和你版本一致的文件夹,就选择和你版本最相近的,因为我的Hadoop版本是3.2.2版本,所以我选择的是hadoop-3.0.0

3.配置环境变量

配置系统环境变量:

新增 变量名:HADOOP_HOME 变量值:就是你上面选择的hadoop版本文件夹的位置地址

在 变量名:path 中新增 变量值:%HADOOP_HOME%in

4. 把hadoop.dll放到C:/windows/system32文件夹下

拷贝bin文件夹下的hadoop.dll文件

复制进C:/windows/system32文件夹下

6.重启IDEA,再次运行代码,跑成功。亲测哟!!!

解决步骤(二):哈哈哈!我没操作啦,但是你可以去下面这个链接操作

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. - 简书 (jianshu.com)

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值