Hbase bulkload数据报 more than 32 hfiles to one family of one region

问题描述

在这里插入图片描述
如图:在采用hbase 的bulkload方式load数据的时候,报如上错误

分析:

	hbase的默认一个region下默认只能最大有32个hfile文件,默认的hfile的文件大小最大为1G,也就是说一个region里面最多只能放32G,一个批次最大的量就是32G,这样远远不能解决问题,	所以需要调大相应的参数来解决问题

解决方案

在hbase-site.xml更改这两个参数来调整
在这里插入代码片

当然在生产环境中一般是不能去随便修改配置文件的,所以可以用代码的方式去设置
    hbaseconf.setInt("hbase.mapreduce.bulkload.max.hfiles.perRegion.perFamily", 1000000);
    hbaseconf.set("hbase.hregion.max.filesize", "10737418240")

重新启动,问题解决!!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值