Failed to set permissions of path: \tmp\hadoop-Administrator\..\Administrator..\.staging to 0700

eclipse上运行hadoop的worldCount例子时,报错如下:

严重: PriviledgedActionException as:Administrator cause:java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator676474946\.staging to 0700
Exception in thread "main" java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator676474946\.staging to 0700
    at org.apache.hadoop.fs.FileUtil.checkReturnValue(FileUtil.java:691)
    at org.apache.hadoop.fs.FileUtil.setPermission(FileUtil.java:664)
    at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:514)
    at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:349)
    at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:193)
    at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:126)
    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:942)
    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:936)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Unknown Source)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190)
    at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:936)
    at org.apache.hadoop.mapreduce.Job.submit(Job.java:550)
    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:580)
    at com.javacodegeeks.examples.wordcount.WordCount.run(WordCount.java:61)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
    at com.javacodegeeks.examples.wordcount.WordCount.main(WordCount.java:28)

这个报错只是在windows上才有的权限错误,linux下没有这种报错,可以正常运行。

解决方法是:

从hadoop官网上下载hadoop1.1.2版本,解压后找到hadoop-1.1.2\hadoop-1.1.2\src\core\org\apache\hadoop\fs下的FileUtil.java文件,打开搜索找到Failed to set permissions of path,应该在689行,注释掉它所在的if语句,windows下不用这个检查方法。

如果只是在eclipse上运行,可以直接在运行的项目下建package包org.apache.hadoop.fs,复制修改后的FileUtil.java到该包下,即可正常运行了。

如果不是,那就得打jar包,修改hadoop-1.1.2\build.xml,搜索autoreconf,删除匹配的6个executable="autoreconf"的exec配置,然后使用ant重新生成hadoop-1.1.2\hadoop-core-1.1.2.jar,可以使用新生成的hadoop-core-1.1.2.jar替换有问题的hadoop-core-1.1.2.jar,即可。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

上善亦若水

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值