java运行中出错null_线程“main”java.lang.RuntimeException中的异常:运行命令获取文件权限时出错:java.io.io Exception:(null)entry[...

与上面@Hapreet Varma描述的程序相同

您缺少winutils.exe hadoop二进制文件。根据x64位/x32位系统,下载winutils.exe文件并将hadoop home设置为指向该文件。

第一条路:

2.在系统ex“C:”中创建hadoop文件夹

4.将winutils.exe粘贴到bin ex中:C:\ hadoop\bin\winuitls.exe

创建新变量名:HADOOP_HOME Path:C:\ HADOOP\

第二条路:

可以使用以下命令直接在Java程序中设置hadoop home:

System.setProperty(“hadoop.home.dir”,“C:\ hadoop”);

如果在Eclipse Oxygen中工作,则必须在系统属性中设置变量后重新启动Eclipse,否则它将无法工作。

2018-05-05 18:27:47错误外壳:397-在hadoop二进制路径中找不到winutils二进制文件

java.io.IOException:在Hadoop二进制文件中找不到可执行文件null\bin\winutils.exe。

2018-05-05 18:27:47 ERROR Shell:397 - Failed to locate the winutils binary in the hadoop binary path

java.io.IOException: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:379)

at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:394)

at org.apache.hadoop.util.Shell.(Shell.java:387)

at org.apache.hadoop.util.StringUtils.(StringUtils.java:80)

at org.apache.hadoop.security.SecurityUtil.getAuthenticationMethod(SecurityUtil.java:611)

at org.apache.hadoop.security.UserGroupInformation.initialize(UserGroupInformation.java:273)

at org.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:261)

at org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(UserGroupInformation.java:791)

at org.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGroupInformation.java:761)

at org.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGroupInformation.java:634)

at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2464)

at org.apache.spark.util.Utils$$anonfun$getCurrentUserName$1.apply(Utils.scala:2464)

at scala.Option.getOrElse(Option.scala:121)

at org.apache.spark.util.Utils$.getCurrentUserName(Utils.scala:2464)

at org.apache.spark.SparkContext.(SparkContext.scala:292)

at org.apache.spark.SparkContext$.getOrCreate(SparkContext.scala:2486)

at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:930)

at org.apache.spark.sql.SparkSession$Builder$$anonfun$7.apply(SparkSession.scala:921)

at scala.Option.getOrElse(Option.scala:121)

at org.apache.spark.sql.SparkSession$Builder.getOrCreate(SparkSession.scala:921)

at com.dataflair.spark.Wordcount$.main(Wordcount.scala:13)

at com.dataflair.spark.Wordcount.main(Wordcount.scala)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值