hbase调优知识点(预分区和rowkey)

目录

一.预分区

hbase中

phoneix中

二.设计Rowkey

 rowkey长度原则

 rowkey散列原则

 rowkey唯一原则

三.热点问题

加盐

哈希

 反转

时间戳反转


一.预分区

默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候, 所有的HBase客户端都向这一个region写数据,直到这个region足够大了才进行切分。 但是region切分是非消耗IO资源的一种操作,对我们写入的速度肯定会产生影响,一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入 HBase时,会按照region分区情况,在集群内做数据的负载均衡。

 那么怎么区实现预分区呢?

hbase中

 假设不进行预分区,最终region的数量为10,那么我们进行预分区的数量就应该是分10块

比如我这里的一组数据,他的rowkey是连续的1500100001-1500101000

一共1000条数据,分10个区

首先创建一个分区信息文件 split.txt,内容如下:

1500100100|
1500100200|
1500100300|
1500100400|
1500100500|
1500100600|
1500100700|
1500100800|
1500100900|

为什么分区后面写'|','|'的ascll码是最大 124,所以小于等于'|'前面的内容都会被分配在切分的左边 

1500100100  和  1500100100|

这里两个比较,你看下面的比上面的多出后面一位,按字典顺序肯定是1500100100在上面

1500100100|  和  1500100101,我们看对应位置的大小,这2个数的前9位都是相同的,1500100101最后一位比前面的数大了,所以字典顺序就是比他大,不会再去看下一位

//创建一个表,指定列簇名,分区文件信息要写全路径
create 'student_split','info',{SPLITS_FILE=>'/root/split.txt'}

不用文件导入的话就把得上面的内容一个一个写入
create 'student_split','info',{SPLITS_FILE=>['1500100100|','1500100200|','1500100300|'.......]}

到hbase的网页端口查看一下这张表的信息: 

 插入数据后观察,写入请求分配的很均衡

phoneix中


在创建表的时候指定salting。会再rowkey前面加上一个随机的前缀,这适用于我们不知道rowkey内容到底是怎样的场合

优点:不需要知道rowkey的分布情况
缺点:不能再hbase中对数据进行查询和修改,改变的rowkey我们也不知道到底是什么样子的

CREATE TABLE IF NOT EXISTS STUDENT3 (
 id VARCHAR NOT NULL PRIMARY KEY, 
 name VARCHAR,
 age BIGINT, 
 gender VARCHAR ,
 clazz VARCHAR
)salt_buckets=6;
upsert into STUDENT3 values('1500100004','葛德曜',24,'男','理科三班');
upsert into STUDENT3 values('1500100005','宣谷芹',24,'男','理科六班');
upsert into STUDENT3 values('1500100006','羿彦昌',24,'女','理科三班');

可以看到,这个'\x01','\x02','\x03'...就是给我们的rowkey打上的标记,因为标记随机分配, 我刚才传入的数据连续的rowkey被打上标记后可能就不在一个分区了

二.设计Rowkey

 rowkey长度原则

rowkey是一个二进制码流,可以是任意字符串,最大长度 64kb ,实际应用中一般为10-100bytes,以 byte[] 形式保存,一般设计成定长。

hase中,无论是rowkey,列簇,列名,这些都会占用内存的, 拿写入数据的过程来说,memstore会把部分数据写入内存,hfile存储数据也会包含这些rowkey等,太长了就压缩了其他信息的存储空间

rowkey散列原则

如果rowkey按照时间戳的方式递增,不要将时间放在二进制码的前面,建议将rowkey的高位作为散列字段,由程序随机生成,低位放时间字段,这样将提高数据均衡分布在每个RegionServer,以实现负载均衡的几率。如果没有散列字段,首字段直接是时间信息,所有的数据都会集中在一个RegionServer上,这样在数据检索的时候负载会集中在个别的RegionServer上,造成热点问题,会降低查询效率。

rowkey唯一原则

必须在设计上保证其唯一性, rowkey可以锁定唯一的一行数据,rowkey重复的话后put的数据会覆盖前面插入的数据

三.热点问题

rowkey设计是热点的源头,热点发生在大量的client直接访问集群的一个或极少数个节点(访问可能是读,写或者其他操作)。大量访问会使热点region所在的单个机器超出自身承受能力,引起性能下降甚至region不可用,这也会影响同一个RegionServer上的其他region,由于主机无法服务其他region的请求。 设计良好的数据访问模式以使集群被充分,均衡的利用。

为了避免写热点,设计rowkey使得不同行在同一个region,但是在更多数据情况下,数据应该被写入集群的多个region,而不是一个。

下面是一些常见的避免热点的方法以及它们的优缺点:

加盐

这里所说的加盐不是密码学中的加盐,而是在rowkey的前面增加随机数,具体就是给rowkey分配一个随机前缀以使得它和之前的rowkey的开头不同。分配的前缀种类数量应该和你想使用数据分散到不同的region的数量一致。加盐之后的rowkey就会根据随机生成的前缀分散到各个region上,以避免热点。

10001,10002,10003这样的三个rowkey给他们加上随机的前缀
##$10001,$%#10002,&%$10003
分配region就不会总是在一个region内了

哈希

哈希会使同一行永远用一个前缀加盐。哈希也可以使负载分散到整个集群,但是读却是可以预测的。 根据哈希值可以反推出完整的rowkey,可以使用get操作准确获取某一个行数据

哈希有多种算法,这里就拿md5来计算1002的哈希值,多次计算都是这个结果
fba9d88164f3e2d9109ee770223212a0
那么别人要是看到这个哈希值也可以通过算法,工具计算出你原来的rowkey是什么样的

 反转

第三种防止热点的方法是反转固定长度或者数字格式的rowkey。这样可以使得rowkey中经常改变的部分(最没有意义的部分)放在前面。这样可以有效的随机rowkey,但是牺牲了rowkey的有序性。 

还是拿1001,1002,1003来说,这3个rowkey连续将改变得数据放到前面
1100,2100,3100,这样就不连续了

时间戳反转

一个常见的数据处理问题是快速获取数据的最近版本,使用反转的时间戳作为rowkey的一部分对这个问题十分有用,可以用 Long.Max_Value - timestamp 追加到key的末尾,

简单说:时间戳反转做的是用一个大的数值减去时间戳

原来的roweky
1638711499_user01
1638711500_user02
1638711501_user03
用一个较大数10000000减去时间戳
8361288499_user03
8361288500_user02
8361288501_user01
这样新的时间戳的信息会在被排在前面

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值