hbase的文件数和进程数优化

1、文件数
ulimit -n 可查看linux系统的打开文件数限制,推荐至少10000以上,一般是10240,因为最好是1024的倍数。
每个列族至少有一个StoreFile,如果region加载,可能超过6个StoreFile,以下公式计算regionserver上打开文件的数量:
(StoreFiles per ColumnFamily) x (regions per RegionServer)
假设每个region上有3个列族,平均每个列族有3个StoreFiles ,每个regionserver上有1000个region,那么JVM需要打开3*3*1000=9000个文件,这还不包括jar文件、配置文件和其它文件。

2、进程数
ulimit -u 查看系统最大进程数(nproc,number of processes on the system)。这个数太小会导致内存溢出。
修改/etc/security/limits.conf文件,如下:
hadoop - nofile 32768
hadoop - nproc 32000
表示hadoop用户软硬件(soft and hard)的最大打开文件数为32768,最大进程数为32000。
这个配置只能在PAM(pluggable authentication module)用户认证环境下应用。确保/etc/pam.d/common-session文件包含以下语句:
session required pam_limits.so

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值