hdfs 采用append方式追加数据时报错

本文介绍了一个在HDFS中使用文件追加方式进行文件合并时遇到的问题及解决方案。问题表现为在关闭输出流时出现IOException错误,原因是无法替换故障数据节点。通过在客户端配置文件hdfs-site.xml中设置特定参数来解决此问题。
摘要由CSDN通过智能技术生成

问题描述:

使用hdfs文件append的方式合并文件:

FSDataOutputStream out = fileSystem.append(desPath, Parameters.BUFFER_SIZE);

在out close时报错:

Java.io.IOException: Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try. 
(Nodes: current=[10.6.222.13:50010], original=[10.6.222.13:50010]). The current failed datanode replacement policy is DEFAULT, and a client may configure this via 'dfs.client.block.write.replace-datanode-on-failure.policy' in its configuration.

 

解决方式:

在客户端的hdfs-site.xml中增加配置项:

<property>
          <name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
          <value>true</value>
    </property>

    <property>
          <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
          <value>NEVER</value>
    </property>

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值