hadoop:DataXceiver error processing WRITE_BLOCK operation

报错:

HIVE跑了一个比较复杂的SQL,根据某字段插入分区表中,结果每次到 Reduce 78% 时就会降到 0%,最终运行失败。查看日志发现是这个DataXceiver类报错

 报错原因:

       文件操作超租期,实际上就是data stream操作过程中文件被删掉了。之前也遇到过,通常是因为Mapred多个task操作同一个文件,一个task完成后删掉文件导致。

解决方法:

1.避免高并发读取同一文件,可减少分区数

2.调整参数,提高HDFS写入的上限。在hdfs-site.xml文件中追加以下内容(该参数默认为256)

    2.x版本:


    <property>

        <name>dfs.datanode.max.transfer.threads</name>   

        <value>8192</value>it

    </property>

   1.x版本

    <property>
        <name>dfs.datanode.max.xcievers</name>
        <value>10240</value>
    </property>

拷贝到各datanode节点并重启datanode便可

运行结果

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值