配置HDFS HA,遇到WARN hdfs.DFSClient: DataStreamer Exception

配置完做测试,在准备 -put一个文件到hdfs时,遇到:WARN hdfs.DFSClient: DataStreamer Exception

刚开始以为是Datandoe出现问题,回头查看各个节点,显示均正常

又查看了current/VERSION里面的clusterID,均显示一致

后来我打开web网页,发现第一台机器的web页面里Datanode没有任何信息

出现了如下情况

 我打开了第二台的页面,正常显示

 这是因为从主节点拷贝完再格式化namenode之后,没有删除主从节点上面的用于保存数据的文件,导致内部namenode存在的文件系统数据对应不上.
 

解决办法

删除tmp下的所有文件,并格式化namenode的节点,重新拷贝namenode

1.删除tmp的dfs文件,存储目录

 

如图,tmp下 的dfs,内包含data与name,即datanode与namenode

cd /opt/modules/hadoop-2.7.2/data/tmp/
 

rm -rf ./*

注意:除了作为namenode的机器 ,其他作为datanenode的机器都要删除

2.之后格式化namenode

2.1)先启动journalnode

sbin/hadoop-daemon.sh start journalnode

2.2)格式化

bin/hdfs namenode -format

3.启动各个节点

 sbin/start-dfs.sh

4.重新拷贝namenode

在机器二上拷贝主机的namenode,并启动

 bin/hdfs namenode -bootstrapStandby

sbin/hadoop-daemon.sh start namenode

这时候再查看Web页面

机器二:worker1

 主机:Master

 恢复正常

尝试上传文件

因为两台机器都是standby状态,所以我们需要先设置一台机器为活跃状态

bin/hdfs haadmin -transitionToActive nn1

-put一个文件到hdfs

 

 bin/hdfs dfs -mkdir -p /user/kfk/data
 

bin/hdfs dfs -put /opt/modules/hadoop-2.7.2/etc/hadoop/core-site.xml /user/kfk/data

上传成功

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值