HBase优化

本文主要探讨了HBase的优化策略,包括设计表的优化,如预分区、rowkey设计、列族管理、内存使用、版本控制和生命周期管理。此外,还介绍了写表优化,如并发写、HTable参数调整、批量写入和多线程并发写。最后,讨论了读表优化,包括并发读、设置Scanner缓存、批量读取以及多线程并发读取等,以提高HBase系统的整体性能。
摘要由CSDN通过智能技术生成
设计表的优化
1.Pre-Creating Regions预分区

       默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个分区写数据,知道这个region分区足够大的时候才进行切分。一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入HBase时,会按照分区情况,在集群内做数据的负载均衡。

2.rowkey的设计

        HBase中row key用来检索表中的记录,支持以下三种方式:

           1、通过单个row key访问,即按照某个row key键值进行get操作

           2、通过row key的range进行scan,即通过设置startRowKey和endRowKey,在这个范围内进行扫描

           3、全表扫描,即直接扫描整张表中所有行记录

        在HBase中,row key可以是任意字符串,最大长度54KB,实际应用中为10~100bytes,存为byte[]字节数组,一般设计定长

        row key按照字典序存储,因此,设计row key时,要充分利用这个排序特点,将经常一起读取的数据存储到一块,将最近可能会访问的数据放到一块

        row key规则:

            1)越小越好

            2)Rowkey的设计是要根据实际业务来

            3)散列性

                    a) 取反 001  002  :  100  200 取反后,rowkey可能落在不同的region上

                    b) Hash  rowkey取hash值后,可能会均匀分布在不同的region上

                散列弊端:降低了范围查找的效率

3.Column Family

        不要再一张表中定义太多的列族。目前HBase并不能很好的处理超过2~3个列族的表。因为某个列族在flush的时候,他邻近的列族也会因关联效应被触发flush,最终导致系统产生更多的I/O。

4.In Memory

        创建表的时候,可以通过HColumnDescriptor.setInMemory(true)将表放到RegionServer的缓存中,保证在读取的时候被cache命中

5.Max Version

    创建表的时候,可以通过HColumnDescriptor.setMaxVersion(int maxVersion)设计表中数据的最大版本,如果只需要保存最新版本的数据,那么可以设置setMaxVersion(1).

6.Time To Live

    创建表的时候可以通过HColumnDescriptor.setTimeToLive(int TimeToLive)设置表中数据的存储生命周期,过期数据将自动被删除,例如如果只需要存储最近两天的数据,那么可以设置setTimeToLive(2*24*60*60)。

7.Compact & Split

       在 HBase 中,数据在更新时首先写入 WAL 日志(HLog)和内存(MemStore)中,MemStore 中的数据是排序的,当 MemStore 累计到一定阈值时,就会创建一个新的MemStore,并且将老的 MemStore 添加到 flush 队列,由单独的线程 flush 到磁盘上,成为一个 StoreFile。于此同时,系统会在 zookeeper 中记录一个 redo point,表示这个时刻之前的变更已经持久化了(minor compact)

        StoreFile 是只读的,一旦创建后就不可以再修改。因此 Hbase 的更新其实是不断追加的操作。当一个 Store 中的 StoreFile 达到一定的阈值后,就会进行一次合并(majorcompact),将对同一个 key 的修改合并到一起,形成一个大的 StoreFile,当 StoreFile 的大小达到一定阈值后,又会对 StoreFile 进行分割(split),等分为两个 StoreFile。

        由于对表的更新是不断追加的,处理读请求时,需要访问 Store 中全部的 StoreFile MemStore,将它们按照 row key 进行合并,由于 StoreFile 和 MemStore 都是经过排序的,并且 StoreFile 带有内存中索引,通常合并过程还是比较快的。

        实际应用中,可以考虑必要时手动进行  major compact ,将同一个  row key  的修改进行合并形成一个大的  StoreFile 。同时,可以将  StoreFile  设置大些,减少  split  的发生。 hbase  为了防止小文件(被刷到磁盘的  menstore )过多,以保证保证查询效率,  hbase 需要在必要的时候将这些小的  store file  合并成相对较大的  store file ,这个过程就称之为 compaction 。在  hbase  中,主要存在两种类型的  compaction :  minor compaction  和  majorcompaction
        minor compaction  是较小、很少文件的合并。
        major compaction  是将所有的  store file  合并成一个,触发  major compaction  的可能条件有:  major_compact  命令、  majorCompact() API 、  region server  自动运行(相关参数: hbase.hregion.majoucompaction  默认为  24  小时、  hbase.hregion.majorcompaction.jetter  默认值为  0.2  ,作用是防止  region server  在同一时间进行  major compaction )。
        hbase.hregion.majorcompaction.jetter  参数的作用是:
        对参数 
hbase.hregion.majoucompaction  规定的值起到浮动的作用,假如两个参数都为默认值  24  和  0.2 ,那么  major compact  最终使用的数值为:  19.2~28.8  这个范围。
        关闭自动 
major compaction , 使用手动方式。
        手动编程 
major compaction :  Timer  类( java ),  contab shell
        minor compaction  的运行机制要复杂一些,它由一下几个参数共同决定:

        hbase.hstore.compaction.min

        默认值为 3,表示至少需要三个满足条件的 store file 时, minor compaction 才会启动hbase.hstore.compaction.max

        默认值为  10 ,表示一次  minor compaction  中最多选取  10  个  store file
        hbase.hstore.compaction.min.size
            表示文件大小小于该值的  store file  一定会加入到  minor compaction  的  store file 
        hbase.hstore.compaction.max.size
            表示文件大小大于该值的  store file  一定会被  minor compaction  排除
        hbase.hstore.compaction.ratio
            将  store file  按照文件年龄排序( older to younger ),  minor compaction  总是从  olderstore file  开始选择 
写表的优化
1.多个HTable并发写

        创建多个HTable客户端用于写操作,提高写数据的吞吐量

2HTable参数设置

        Auto Flush

                通过调用HTable.setAutoFlush(false)方法可以将HTable写客户端的自动flush关闭,这样可以批量写入数据到HBase,而不是有有一条put就执行一次更新,只有当put填满客户端写缓存时,才实际向HBase服务端发起写请求。默认情况下auto flush 是开启的。

        Write Buffer

                通过调用 HTable.setWriteBufferSize(writeBufferSize)方法可以设置 HTable 客户端的写buffer 大小,如果新设置的 buffer 小于当前写 buffer 中的数据时, buffer 将会被 flush 到服务端。其中, writeBufferSize 的单位是 byte 字节数,可以根据实际写入数据量的多少来设置该值

        WAL Flag

                在 HBase 中,客户端向集群中的 RegionServer 提交数据时(Put/Delete 操作),首先会先写 WALWrite Ahead Log)日志(即 HLog,一个 RegionServer 上的所有 Region 共享一个HLog),只有当 WAL 日志写成功后,再接着写 MemStore,然后客户端被通知提交数据成功;如果写 WAL 日志失败,客户端则被通知提交失败。这样做的好处是可以做到
RegionServer 宕机后的数据恢复。
         因此,对于相对不太重要的数据,可以在 
Put/Delete 操作时,通过调用Put.setWriteToWAL(false)或 Delete.setWriteToWAL(false)函数,放弃写 WAL 日志,从而提高数据写入的性能。值得注意的是:谨慎选择关闭 WAL 日志,因为这样的话,一旦 RegionServer 宕机,Put/Delete 的数据将会无法根据 WAL 日志进行恢复。 

3.批量写

        通过调用 HTable.put(Put)方法可以将一个指定的 row key 记录写入 HBase,同样 HBase提供了另一个方法:通过调用 HTable.put(List<Put>)方法可以将指定的 row key 列表,批量写入多行记录,这样做的好处是批量执行,只需要一次网络 I/O 开销,这对于对数据实时性要求高,网络传输 RTT 高的情景下可能带来明显的性能提升。 

4.多线程并发写

        在客户端开启多个 HTable 写线程,每个写线程负责一个 HTable 对象的 flush 操作,这样结合定时 flush 和写 bufferwriteBufferSize),可以既保证在数据量小的时候,数据可以在较短时间内被 flush(如 秒内),同时又保证在数据量大的时候,写 buffer 一满就及时进行 flush 

读表的优化
1.多个HTable并发读

            创建多个HTable客户端用于读操作,提高读数据的吞吐量

2.HTable参数设置

            Scanner Caching

                    hbase.client.scanner.caching 配置项可以设置 HBase scanner 一次从服务端抓取的数据条数,默认情况下一次一条。通过将其设置成一个合理的值,可以减少 scan 过程中 next()的时间开销,代价是 scanner 需要通过客户端的内存来维持这些被 cache 的行记录。
                    有三个地方可以进行配置:
                        a) 在 HBase 的 conf 配置文件中进行配置;
                        b) 通过调用 HTable.setScannerCaching(int scannerCaching)进行配置;
                        c) 通过调用 Scan.setCaching(int caching)进行配置。
                    三者的优先级越来越高。
 
            Scan Attribute Selection 
                    scan 时指定需要的 Column Family,可以减少网络传输数据量,否则默认 scan 操作会返回整行所有 Column Family 的数据。 
            Close ResultScanner 
                     通过 scan 取完数据后,记得要关闭 ResultScanner,否则 RegionServer 可能会出现问题(对应的 Server 资源无法释放)。 

3.批量读

            通过调用 HTable.get(Get)方法可以根据一个指定的 row key 获取一行记录,同样 HBase提供了另一个方法:通过调用 HTable.get(List<Get>)方法可以根据一个指定的 row key 列表,批量获取多行记录,这样做的好处是批量执行,只需要一次网络 I/O 开销,这对于对数据实时性要求高而且网络传输 RTT 高的情景下可能带来明显的性能提升。 

 4.多线程并发读

            在客户端开启多个 HTable 读线程,每个读线程负责通过 HTable 对象进行 get 操作。 

5.缓存查询结果
            对于频繁查询 HBase 的应用场景,可以考虑在应用程序中做缓存,当有新的查询请求时,首先在缓存中查找,如果存在则直接返回,不再查询 HBase;否则对 HBase 发起读请求查询,然后在应用程序中将查询结果缓存起来。至于缓存的替换策略,可以考虑 LRU 等常用的策略。 
 6.Blockcache
            HBase 上 Regionserver 的内存分为两个部分,一部分作为 Memstore,主要用来写;另外一部分作为 BlockCache,主要用于读。写请求会先写入 Memstore, Regionserver 会给每个 region 提供一个 Memstore,当Memstore 满 64MB 以后,会启动 flush 刷新到磁盘。当 Memstore 的总大小超过限制时(heapsize * hbase.regionserver.global.memstore.upperLimit * 0.9),会强行启动 flush 进程,从最大的 Memstore 开始 flush 直到低于限制。
          读请求先到 
Memstore 中查数据,查不到就到 BlockCache 中查,再查不到就会到磁盘上读,并把读的结果放入 BlockCache。由于 BlockCache 采用的是 LRU 策略,因此BlockCache 达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据。
             一个 
Regionserver 上有一个 BlockCache 和 个 Memstore,它们的大小之和不能大于等于 heapsize * 0.8,否则 HBase 不能启动。默认 BlockCache 为 0.2,而 Memstore 为 0.4。对于注重读响应时间的系统,可以将 BlockCache 设大些,比如设置 BlockCache=0.4Memstore=0.39,以加大缓存的命中率。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值