hadoop报错 java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Lja

2018-04-11 16:32:28,514 INFO [org.apache.hadoop.mapreduce.JobSubmitter] - Submitting tokens for job: job_local1975654255_0001
2018-04-11 16:32:28,561 WARN [org.apache.hadoop.conf.Configuration] - file:/tmp/hadoop-Zimo/mapred/staging/Zimo1975654255/.staging/job_local1975654255_0001/job.xml:an attempt to override final parameter: mapreduce.job.end-notification.max.retry.interval;  Ignoring.
2018-04-11 16:32:28,562 WARN [org.apache.hadoop.conf.Configuration] - file:/tmp/hadoop-Zimo/mapred/staging/Zimo1975654255/.staging/job_local1975654255_0001/job.xml:an attempt to override final parameter: mapreduce.job.end-notification.max.attempts;  Ignoring.
2018-04-11 16:32:28,663 DEBUG [org.apache.hadoop.security.UserGroupInformation] - PrivilegedAction as:Zimo (auth:SIMPLE) from:org.apache.hadoop.fs.FileContext.getAbstractFileSystem(FileContext.java:329)
2018-04-11 16:32:28,758 INFO [org.apache.hadoop.mapreduce.JobSubmitter] - Cleaning up the staging area file:/tmp/hadoop-Zimo/mapred/staging/Zimo1975654255/.staging/job_local1975654255_0001
Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
    at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method)
    at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:435)
    at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)
    at org.apache.hadoop.util.DiskChecker.checkAccessByFileMethods(DiskChecker.java:177)
    at org.apache.hadoop.util.DiskChecker.checkDirAccess(DiskChecker.java:164)
at org.apache.hadoop.util.DiskChecker.checkDir(DiskChecker.java:98)
    at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.confChanged(LocalDirAllocator.java:285)
    at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:344)
    at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:150)
    at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:131)
    at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:115)
    at org.apache.hadoop.mapred.LocalDistributedCacheManager.setup(LocalDistributedCacheManager.java:131)
at org.apache.hadoop.mapred.LocalJobRunner$Job.<init>(LocalJobRunner.java:157)
    at org.apache.hadoop.mapred.LocalJobRunner.submitJob(LocalJobRunner.java:636)
    at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:430)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1268)
    at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1265)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
    at org.apache.hadoop.mapreduce.Job.submit(Job.java:1265)
    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1286)
    at com.hadoop.phoneStatistics.ExcelPhoneStatistics.run(ExcelPhoneStatistics.java:117)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
    at com.hadoop.phoneStatistics.ExcelPhoneStatistics.main(ExcelPhoneStatistics.java:128)
2018-04-11 16:32:28,767 DEBUG [org.apache.hadoop.ipc.Client] - Stopping client
2018-04-11 16:32:28,767 DEBUG [org.apache.hadoop.ipc.Client] - IPC Client (1166151249) connection to centpy/192.168.86.134:9000 from Zimo: closed

2018-04-11 16:32:28,768 DEBUG [org.apache.hadoop.ipc.Client] - IPC Client (1166151249) connection to centpy/192.168.86.134:9000 from Zimo: stopped, remaining connections 0




解决办法 1 bin中缺少hadoop.dll文件。   解决方法是下载https://github.com/srccodes/hadoop-common-2.2.0-bin文件然后将其中的hadoop.dll文件放到hadoop安装路径的bin文件夹下(配置好HADOOP_HOME的环境变量),然后重启电脑,这样问题就能得到解决了!

解决办法2  可能是系统原因。解决办法是讲hadoop中bin文件丢到c://windows /System32中。我的是此种原因。

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 8
    评论
### 回答1: 这是一个Java错误,表示在调用org.apache.hadoop.io.nativeio.nativeio$windows.access(ljava/lang/string;i)z时出现了问题。这个错误通常是由于缺少本地库或本地库无法加载而引起的。要解决这个问题,您需要确保本地库已正确安装并且可以被Java虚拟机加载。您还可以尝试重新安装Hadoop并确保所有依赖项都已正确安装。 ### 回答2: Java.lang.unsatisfiedlinkerrorJava程序中的一个常见异常,它通常发生在Java代码中的native方法调用时,表示此方法的本地代码实现在运行时找不到。在这个问题中,具体的错误信息是:org.apache.hadoop.io.nativeio.nativeio$windows.access0(ljava/lang/string;i)z。 这个错误信息告诉我们,出错的地方是org.apache.hadoop.io.nativeio包中的windows.access0方法,这个方法的参数包括一个字符串和一个整数,返回值类型是布尔值。接下来展示的是Windows平台下访问本地IO的一些操作。 首先,我们需要确定这个问题的根本原因。最常见的触发这个异常的原因是本地库或动态链接库文件缺失或损坏。这意味着,程序需要调用本地库文件,但找不到或无法使用这个文件,因此出现了错误。 要解决这个问题,我们可以考虑使用以下方法: 1.确定Java代码中调用的方法是否需要本地库文件作为依赖,并检查依赖文件是否与程序一起打包并正确部署。 2.检查本地库文件是否存在于Java.library.path所指定的目录中,并确保路径是正确的。例如,如果使用了hadoop-winutils库,请确保此库存在于可执行文件的路径中。 3.如果程序需要动态链接库文件,请检查文件是否已经正确安装,并检查环境变量是否正确配置。例如,在Windows环境中,PATH变量通常需要包含动态链接库文件路径,以便应用程序可以找到库文件。 4.尝试使用JVM参数-Djava.library.path来指定本地库文件路径。可以将此参数添加到应用程序的启动脚本中,或通过使用Java命令行界面来传递该参数。 总之,当Java程序中出现“java.lang.unsatisfiedlinkerror: org.apache.hadoop.io.nativeio.nativeio$windows.access0(ljava/lang/string;i)z”这个错误时,我们需要确认本地库文件是否被正确引用并部署,检查环境变量是否设置正确,并且尝试使用JVM参数指定本地库文件路径。这些步骤将有助于解决这个问题。 ### 回答3: 这是一个十分常见的错误,通常出现在使用Hadoop或者Spark等大数据框架时。其中,java.lang.unsatisfiedlinkerror表示在Java应用程序中找不到本地库文件,原因是调用的方法无法从Java虚拟机找到本地实现。 具体地,这个错误是因为在Windows系统上运行Hadoop程序时无法加载hadoop.dll文件造成的。hadoop.dll是在使用Hadoop的本地文件系统时需要的动态链接库文件。解决这个问题,一般有以下几种方法: 1. 将hadoop.dll文件复制到%WINDOWS%/System32文件夹下。这可以让系统知道要在该文件夹下搜索hadoop.dll文件。 2. 将hadoop.dll文件复制到Hadoop库文件夹下即可。可以从Hadoop官网下载对应的hadoop.dll文件,然后将其复制到Hadoop的库文件夹中即可。 3. 检查系统环境变量。有时候,系统环境变量并没有正确配置,这就会导致无法找到hadoop.dll文件。可以检查Path环境变量是否已包括hadoop.dll文件所在路径。 总之,java.lang.unsatisfiedlinkerror实际上是由于Java应用程序无法找到本地库文件而引起的。在Hadoop程序中,这个错误通常是由于无法加载hadoop.dll文件造成的。我们可以尝试使用上述的方法解决这个问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值