【Hadoop】java.io.IOException: Failed on local exception: java.nio.channels.ClosedByInterruptException

查看日志中的报错信息如下:

java.io.IOException: Failed on local exception: java.nio.channels.ClosedByInterruptException; Host Details :

local host is: "1.datanode3/72.118.0.15"; destination host is: "1.server1":8020;

    at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:764)

   at org.

原因:程序启动过程中读文件失败导致程序无法启动。

解决方案:

HDFS 格式化操作步骤

备份现有的文件

su - hdfs hadoop fs -get /file .

程序 所在的节点上执⾏,这两个命令执⾏之后,会在 /home/hdfs/ ⽬录下多出⼀个 file ⽬录, 这个⽬录是现在所有的规则⽂件,这个⽬录在最后⼀步需要还原回去。

格式化HDFS 1.在Ambari 上依次停⽌分析平台,Yarn,HDFS。 2.到HDFS的各个节点上,查看${hadoop_home}/hadoop/conf/hdfs-site.xml ⽂件 ,找到属性 dfs.namenode.name.dir 和 dfs.datanode.data.dir 的值,如果存在这两个路径,删掉这两个⽬ 录下的所有⽂件,⽬录需要保留。 3.到 namenode 节点上,切换到 hdfs ⽤户,⽤ hadoop namenode -format 执⾏HDFS 格式化操 作。 4.依次启动HDFS,YARN,分析平台。 备注namenode所在节点可以通过.

还原file文件, 到 所在的节点上执⾏ su - hdfs hadoop fs -put .file /

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值