HBase性能优化【小二讲堂】

HBase底层原理、架构讲解、作业流程讲解:https://blog.csdn.net/Mirror_w/article/details/89713558

HBase的性能优化

1.表的设计

  • 1.1 Pre-Creating Regions
    默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase都向这region中写数据,知道这个region足够大时才进行切分region。这样对于很大的region进行切分的时候,会造成效率降低。
    解决方案:就是上传数据之前预先创建一些空的region,这样当数据写入的时候,会按照分区情况,在集群内做数据的负载均衡。
  • 1.2 rowkey行键
    HBase中的rowkey用来检索表中的记录,支持三种方式:
    ·1.通过单个的rowkey访问,即按照某个rowkey减值进行get操作。
    ·2.通过rowkey的range进行scan:通过设置startRowkey和endRowkey,在这个范围内进行扫描。
  • ·3.全表扫描:即直接扫描整张表中的全部数据。
    rowkey是按照字典序进行储存的,设计rowkey是要充分利用这个排序特点,可以将最近经常一起读写的数据存储到一起。
    举个例子:如果最近写入HBase表中的数据是最可能被访问的,可以考虑将时间戳作为row key的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE - timestamp作为row key,这样能保证新写入的数据在读取时可以被快速命中。
    Rowkey设计规则:
    rowkey的长度越小越好
    rowkey的设计越小越好
    rowkey的设计具有散列性。
  • 1.3 column family列族
    不要在一张表中定义太多的column family。最好地是1-2个。因为当某个column在flush的时候,它临近的column family也会因关联而出发flush操作。最终会导致跟多的IO操作。
  • 1.4 In Memory
    创建表的时候可以通过HColumnDescriptor.setInMemory(true)将表放大RegionServer的缓存中。在读取的时候被命中,保证高效读取。
  • 1.5 Max version
    创建表的时候可以设置HColumnDescriptor.setMaxVersions(int maxVersions)表中数据的最大版本号。如果只需要保存最新的数据那么只需要设置setMaxVersions(1)。
  • 1.6 Time to live
    创建表的时候通过HColumnDescriptor.setTimeToLive(int timeToLive)设置表中数据的生命周期,过期数据将自动被删除。如果只需要存储两天的数据可以设置只需哟啊存储两天的数据即可。过期数据自动删除setTimeToLive(2 * 24 * 60 * 60)。
  • 1.7 Compact & split ----重点
    在HBase中,数据在更新时首先写入WAL日志和内存MemStore中MemStore中的数据时排序的。当MemSore达到一定阈值后会会创建一个新的MemStore,并且到老的MemStore添加到flush队列,由单独的线程flush到磁盘,于此同时,系统会在zookeeper中记录一个redo point表示这个时刻之前的数据已经持久化到磁盘了。
    StoreFile是只读的一旦创建之后就不可以再次修改了。因此HBase只能append追加数据。当一个Store中的StoreFile数据达到一定的阈值后,就会进行一次(major compact)。将对同一key的修改合并到一起。形成一个大的StoreFile,当一个StoreFile的大小达到一定阈值之后,又会对StoreFile进行Split分割,分割成两个StoreFile…
    由于对表的更新是不断追加的,处理读请求时,需要访问Store中全部的StoreFile和MemStore,将它们按照row key进行合并,由于StoreFile和MemStore都是经过排序的,并且StoreFile带有内存中索引,通常合并过程还是比较快的。
    实际应用中,可以考虑必要时手动进行major compact,将同一个row key的修改进行合并形成一个大的StoreFile。同时,可以将StoreFile设置大些,减少split的发生。
    hbase为了防止小文件(被刷到磁盘的menstore)过多,以保证查询效率,hbase需要在必要的时候将这些小的store file合并成相对较大的store file,这个过程就称之为compaction。
在hbase中,主要存在两种类型的compaction:minor compaction和major compaction。

minor compaction:的是较小、很少文件的合并。
major compaction 的功能是将所有的store file合并成一个,
触发major compaction的可能条件有:
major_compact 命令、majorCompact() API、region server自动运行(相关参数:hbase.hregion.majoucompaction 默认为24 小时、hbase.hregion.majorcompaction.jetter 默认值为0.2 防止region server 在同一时间进行major compaction)。
hbase.hregion.majorcompaction.jetter参数的作用是:对参数hbase.hregion.majoucompaction 规定的值起到浮动的作用,假如两个参数都为默认值24和0,2,那么major compact最终使用的数值为:19.2~28.8 这个范围。
1)、 关闭自动major compaction
2)、 手动编程major compaction
Timer类

  • minor compaction的运行机制要复杂一些,它由一下几个参数共同决定:

hbase.hstore.compaction.min :默认值为 3,表示至少需要三个满足条件的store file时,minor compaction才会启动
hbase.hstore.compaction.max 默认值为10,表示一次minor compaction中最多选取10个store file
hbase.hstore.compaction.min.size 表示文件大小小于该值的store file 一定会加入到minor compaction的store file中
hbase.hstore.compaction.max.size 表示文件大小大于该值的store file 一定会被minor compaction排除
hbase.hstore.compaction.ratio 将store file 按照文件年龄排序(older to younger),minor compaction总是从older store file开始选择.

2.写表的操作

2.1 多htable并发写

创建多个htable客户端,并发地向表中写数据,提高写数据的吞吐量。

2.2 HTable的参数设置
  • 2.2.1 Auto Flush
    通过调用HTable.setAutoFlush(false)方法可以将HTable写客户端的自动flush关闭,这样可以批量写入数据到HBase,而不是有一条put就执行一次更新,只有当put填满客户端写缓存时,才实际向HBase服务端发起写请求。默认情况下auto flush是开启的。
  • 2.2.2 Write Buffer
    通过调用HTable.setWriteBufferSize(writeBufferSize)方法可以设置HTable客户端的写buffer大小,如果新设置的buffer小于当前写buffer中的数据时,buffer将会被flush到服务端。其中,writeBufferSize的单位是byte字节数,可以根据实际写入数据量的多少来设置该值。
    • 2.2.3 WAL Flag
      在HBae中,客户端向集群中的RegionServer提交数据时(Put/Delete操作),首先会先写WAL(Write Ahead Log)日志(即HLog,一个RegionServer上的所有Region共享一个HLog),只有当WAL日志写成功后,再接着写MemStore,然后客户端被通知提交数据成功;如果写WAL日志失败,客户端则被通知提交失败。这样做的好处是可以做到RegionServer宕机后的数据恢复。
      因此,对于相对不太重要的数据,可以在Put/Delete操作时,通过调用Put.setWriteToWAL(false)或Delete.setWriteToWAL(false)函数,放弃写WAL日志,从而提高数据写入的性能。
      值得注意的是:谨慎选择关闭WAL日志,因为这样的话,一旦RegionServer宕机,Put/Delete的数据将会无法根据WAL日志进行恢复。
  • 2.3 批量写
    通过调用HTable.put(Put)方法可以将一个指定的row key记录写入HBase,同样HBase提供了另一个方法:通过调用HTable.put(List)方法可以将指定的row key列表,批量写入多行记录,这样做的好处是批量执行,只需要一次网络I/O开销,这对于对数据实时性要求高,网络传输RTT高的情景下可能带来明显的性能提升。
  • 2.4 多线程并发写(维护麻烦)
    在客户端开启多个HTable写线程,每个写线程负责一个HTable对象的flush操作,这样结合定时flush和写buffer(writeBufferSize),可以既保证在数据量小的时候,数据可以在较短时间内被flush(如1秒内),同时又保证在数据量大的时候,写buffer一满就及时进行flush。

3.读表操作

  • 3.1 多HTable并发读
    创建多个HTable客户端用于读操作,提高读数据的吞吐量,
    3.2 HTable参数设置
  • 3.2.1 Scanner Caching
    hbase.client.scanner.caching配置项可以设置HBase scanner一次从服务端抓取的数据条数,默认情况下一次一条。通过将其设置成一个合理的值,可以减少scan过程中next()的时间开销,代价是scanner需要通过客户端的内存来维持这些被cache的行记录。
    有三个地方可以进行配置:1)在HBase的conf配置文件中进行配置;2)通过调用HTable.setScannerCaching(int scannerCaching)进行配置;3)通过调用Scan.setCaching(int caching)进行配置。三者的优先级越来越高。
  • 3.2.2 Scan Attribute Selection
    scan时指定需要的Column Family,可以减少网络传输数据量,否则默认scan操作会返回整行所有Column Family的数据。
  • 3.2.3 Close ResultScanner
    通过scan取完数据后,记得要关闭ResultScanner,否则RegionServer可能会出现问题(对应的Server资源无法释放)。
  • 3.3 批量读
    通过调用HTable.get(Get)方法可以根据一个指定的row key获取一行记录,同样HBase提供了另一个方法:通过调用HTable.get(List)方法可以根据一个指定的row key列表,批量获取多行记录,这样做的好处是批量执行,只需要一次网络I/O开销,这对于对数据实时性要求高而且网络传输RTT高的情景下可能带来明显的性能提升。
  • 3.4 多线程并发读 (使用mr替代)
    在客户端开启多个HTable读线程,每个读线程负责通过HTable对象进行get操作。
  • 3.5 缓存查询结果
    对于频繁查询HBase的应用场景,可以考虑在应用程序中做缓存,当有新的查询请求时,首先在缓存中查找,如果存在则直接返回,不再查询HBase;否则对HBase发起读请求查询,然后在应用程序中将查询结果缓存起来。至于缓存的替换策略,可以考虑LRU等常用的策略。
  • 3.6 Blockcache
    HBase上Regionserver的内存分为两个部分,一部分作为Memstore,主要用来写;另外一部分作为BlockCache,主要用于读。
    写请求会先写入Memstore,Regionserver会给每个region提供一个Memstore,当Memstore满64MB以后,会启动 flush刷新到磁盘。当Memstore的总大小超过限制时(heapsize * hbase.regionserver.global.memstore.upperLimit * 0.9),会强行启动flush进程,从最大的Memstore开始flush直到低于限制。
    读请求先到Memstore中查数据,查不到就到BlockCache中查,再查不到就会到磁盘上读,并把读的结果放入BlockCache。由于BlockCache采用的是LRU策略,因此BlockCache达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据。
    一个Regionserver上有一个BlockCache和N个Memstore,它们的大小之和不能大于等于heapsize * 0.8,否则HBase不能启动。默认BlockCache为0.2,而Memstore为0.4。对于注重读响应时间的系统,可以将 BlockCache设大些,比如设置BlockCache=0.4,Memstore=0.39,以加大缓存的命中率。

Htable

HTable是HBase客户端与HBase服务端通讯的Java API对象,客户端可以通过HTable对象与服务端进行CRUD操作(增删改查)。它的创建很简单:
Configuration conf = HBaseConfiguration.create();
HTable table = new HTable(conf, “tablename”);
//TODO CRUD Operation……
HTable使用时的一些注意事项:

1. 规避HTable对象的创建开销

因为客户端创建HTable对象后,需要进行一系列的操作:检查.META.表确认指定名称的HBase表是否存在,表是否有效等等,整个时间开销比较重,可能会耗时几秒钟之长,因此最好在程序启动时一次性创建完成需要的HTable对象,如果使用Java API,一般来说是在构造函数中进行创建,程序启动后直接重用。

2. HTable对象不是线程安全的

HTable对象对于客户端读写数据来说不是线程安全的,因此多线程时,要为每个线程单独创建复用一个HTable对象,不同对象间不要共享HTable对象使用,特别是在客户端auto flash被置为false时,由于存在本地write buffer,可能导致数据不一致。

3. HTable对象之间共享Configuration

HTable对象共享Configuration对象,这样的好处在于:
· 共享ZooKeeper的连接:每个客户端需要与ZooKeeper建立连接,查询用户的table regions位置,这些信息可以在连接建立后缓存起来共享使用;
· 共享公共的资源:客户端需要通过ZooKeeper查找-ROOT-和.META.表,这个需要网络传输开销,客户端缓存这些公共资源后能够减少后续的网络传输开销,加快查找过程速度。
因此,与以下这种方式相比:

HTable table1 = new HTable("table1");
HTable table2 = new HTable("table2");

下面的方式更有效些:

Configuration conf = HBaseConfiguration.create();
HTable table1 = new HTable(conf, "table1");
HTable table2 = new HTable(conf, "table2");

备注:即使是高负载的多线程程序,也并没有发现因为共享Configuration而导致的性能问题;如果你的实际情况中不是如此,那么可以尝试不共享Configuration。
HTablePool
HTablePool可以解决HTable存在的线程不安全问题,同时通过维护固定数量的HTable对象,能够在程序运行期间复用这些HTable资源对象。

Configuration conf = HBaseConfiguration.create();
HTablePool pool = new HTablePool(conf, 10);
    1. HTablePool可以自动创建HTable对象,而且对客户端来说使用上是完全透明的,可以避免多线程间数据并发修改问题。
    1. HTablePool中的HTable对象之间是公用Configuration连接的,能够可以减少网络开销。
      HTablePool的使用很简单:每次进行操作前,通过HTablePool的getTable方法取得一个HTable对象,然后进行put/get/scan/delete等操作,最后通过HTablePool的putTable方法将HTable对象放回到HTablePool中。

小二讲堂:https://blog.csdn.net/Mirror_w
python精讲:https://blog.csdn.net/Mirror_w/article/details/89281041

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值