1. HBase 预分区解决海量导入数据时的热点问题
1) 在创建HBase表的时候默认一张表只有一个region,所有的put操作都会往这一个region中填充数据,当这个一个region过大时就会进行split。如果在创建HBase的时候就进行预分区则会减少当数据量猛增时由于region split带来的资源消耗。HBase表的预分区需要紧密结合业务场景来选择分区的key值,每个region都有一个startKey和一个endKey来表示该region存储的rowKey范围。创建包含预分区表的命令如下:
1. create 't1', 'cf', SPLITS => ['20150501000000000', '20150515000000000', '20150601000000000']
2. create 't2', 'cf', SPLITS_FILE => '/home/hadoop/splitfile.txt'