Hbase优化

=====================================================优化======================================================

Hbase默认只有一级索引,就是rowkey!如果要建立二级索引,需要自己维护!

1.potocol buffers 可以序列化结构化数据!
  利用protocol_buffer可以帮着我们节省硬盘的空间,节省多个不同的cell公用一些共同的信息的空间!起到优化存储,提高Hbase的存储空间!

yum groupinstall Development tools
yum grouplist
(安装开发者工具包)

yum clean all
yum makecache或者yum list重新生成缓存!

本地yum源:都需要挂载一份!
局域网yum源:只需要挂载一份!


点击已连接:相当于将光盘插入到电脑中!


=======================================Hbase优化=====================================================

优化更多笔记见另一张doc文档:Hbase优化

Hbase和DBMS比较:
    查询数据不灵活:
    1、不能使用column之间过滤查询
    2、不支持全文索引。使用solr和hbase整合完成全文搜索。
    a)使用MR批量读取hbase中的数据,在solr里面建立索引(no  store)之保存rowkey的值。
    b)根据关键词从索引中搜索到rowkey(分页)
    c)根据rowkey从hbase查询所有数据

    Hbase默认只有一级索引,就是rowkey!如果要建立二级索引,需要自己维护!
    
    

1.解决单台服务器regionServer的读写请求的压力:预分区(理论上创建一张Hbase表,都要创建预分区,当然也对自己的数据了解,大约共有多少条!)
 
 1.1 Pre-Creating Regions
     默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数据,直到这个region足够大了才进行切分。一种可以加快批量写入速度的方法是通过预先创建一些空的regions,这样当数据写入HBase时,会按照region分区情况,在集群内做数据的负载均衡。
    
 
2.rowkey的设计:
   Row Key
    HBase中row key用来检索表中的记录,支持以下三种方式:
        1.单个row key访问:即按照某个row key键值进行get操作;
        2.过row key的range进行scan:即通过设置startRowKey和endRowKey,在这个范围内进行扫描;
        3.表扫描:即直接扫描整张表中所有行记录。(谨慎使用)
    在HBase中,row key可以是任意字符串,最大长度64KB,实际应用中一般为10~100bytes,存为byte[]字节数组,一般设计成定长的。
    row key是按照字典序存储,因此,设计row key时,要充分利用这个排序特点,将经常一起读取的数据存储到一块,将最近可能会被访问的数据放在一块。
    举个例子:如果最近写入HBase表中的数据是最可能被访问的,可以考虑将时间戳作为row key的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE - timestamp作为row key,这样能保证新写入的数据在读取时可以被快速命中。
    Rowkey规则:
        1、越小越好(rowkey最大是64kb)
        2、Rowkey的设计是要根据实际业务来(越是重要的,经常查的就放在rowkey)!
        3、散列性(多个分区,多台RegionServer共同承担IO请求读写压力)
            a)取反   001  002  100 200
            b)Hash

3 Column Family
   一张表里定义太多的column family。目前Hbase并不能很好的处理超过2~3个column family的表。因为某个column family在flush的时候,它邻近的column family也会因关联效应被触发flush,最终导致系统产生更多的I/O。感兴趣的同学可以对自己的HBase集群进行实际测试,从得到的测试结果数据验证一下。
4 In Memory
   创建表的时候,可以通过HColumnDescriptor.setInMemory(true)将表放到RegionServer的缓存中,保证在读取的时候被cache命中。
5 Max Version
    创建表的时候,可以通过HColumnDescriptor.setMaxVersions(int?maxVersions)设置表中数据的最大版本,如果只需要保存最新版本的数据,那么可以设置setMaxVersions(1)。
6 Time To Live
    创建表的时候,可以通过HColumnDescriptor.setTimeToLive(int timeToLive)设置表中数据的存储生命期,过期数据将自动被删除,例如如果只需要存储最近两天的数据,那么可以设置setTimeToLive(2 * 24 * 60 * 60)。

7.在HBase中,数据在更新时首先写入WAL 日志(HLog)和内存(MemStore)中,MemStore中的数据是排序的,当MemStore累计到一定阈值时,就会创建一个新的MemStore,并且将老的MemStore添加到flush队列,由单独的线程flush到磁盘上,成为一个StoreFile。于此同时, 系统会在zookeeper中记录一个redo point,表示这个时刻之前的变更已经持久化了(minor compact)。
    StoreFile是只读的,一旦创建后就不可以再修改。因此Hbase的更新其实是不断追加的操作。当一个Store中的StoreFile达到一定的阈值后,就会进行一次合并(major compact),将对同一个key的修改合并到一起,形成一个大的StoreFile,当StoreFile的大小达到一定阈值后,又会对 StoreFile进行分割(split),等分为两个StoreFile。
    由于对表的更新是不断追加的,处理读请求时,需要访问Store中全部的StoreFile和MemStore,将它们按照row key进行合并,由于StoreFile和MemStore都是经过排序的,并且StoreFile带有内存中索引,通常合并过程还是比较快的。
    实际应用中,可以考虑必要时手动进行major compact,将同一个row key的修改进行合并形成一个大的StoreFile。同时,可以将StoreFile设置大些,减少split的发生。

    minor compact一般我们自己不会合并,一般只会合并个位数,所以基本上我们不考虑!
    major compact:默认是将所有的store file合并成一个!

    major compaction 的功能是将所有的store file合并成一个,触发major compaction的可能条件有:major_compact 命令、majorCompact() API、region server自动运行(相关参数:hbase.hregion.majoucompaction 默认为24 小时、hbase.hregion.majorcompaction.jetter 默认值为0.2 防止region server 在同一时间进行major compaction)
        hbase.hregion.majorcompaction.jetter参数的作用是:对参数hbase.hregion.majoucompaction 规定的值起到浮动的作用,假如两个参数都为默认值24和0,2,那么major compact最终使用的数值为:19.2~28.8 这个范围。

    1、关闭自动major compaction
    2、手动编程major compaction


Timer类,contab
    minor compaction的运行机制要复杂一些,它由一下几个参数共同决定:
    hbase.hstore.compaction.min :默认值为 3,表示至少需要三个满足条件的store file时,minor compaction才会启动
    hbase.hstore.compaction.max 默认值为10,表示一次minor compaction中最多选取10个store file
    hbase.hstore.compaction.min.size 表示文件大小小于该值的store file 一定会加入到minor compaction的store file中
    hbase.hstore.compaction.max.size 表示文件大小大于该值的store file 一定会被minor compaction排除
    hbase.hstore.compaction.ratio 将store file 按照文件年龄排序(older to younger),minor compaction总是从older store file开始选择
                  

14.Hbase有memcache写缓存,默认启动,Hbase还有一个读缓存!(磁盘缓存,不是内存缓存哦)In Memory!

15.Time To live(TTL:是针对所有cell版本)


16.MapReduce多线程(并发写)!

2.2 HTable参数设置
2.2.1 Auto Flush
    通过调用HTable.setAutoFlush(false)方法可以将HTable写客户端的自动flush关闭,这样可以批量写入数据到HBase,而不是有一条put就执行一次更新,只有当put填满客户端写缓存时,才实际向HBase服务端发起写请求。默认情况下auto flush是开启的。
2.2.2 Write Buffer
    通过调用HTable.setWriteBufferSize(writeBufferSize)方法可以设置HTable客户端的写buffer大小,如果新设置的buffer小于当前写buffer中的数据时,buffer将会被flush到服务端。其中,writeBufferSize的单位是byte字节数,可以根据实际写入数据量的多少来设置该值。
2.2.3 WAL Flag
    在HBae中,客户端向集群中的RegionServer提交数据时(Put/Delete操作),首先会先写WAL(Write Ahead Log)日志(即HLog,一个RegionServer上的所有Region共享一个HLog),只有当WAL日志写成功后,再接着写MemStore,然后客户端被通知提交数据成功;如果写WAL日志失败,客户端则被通知提交失败。这样做的好处是可以做到RegionServer宕机后的数据恢复。
    因此,对于相对不太重要的数据,可以在Put/Delete操作时,通过调用Put.setWriteToWAL(false)或Delete.setWriteToWAL(false)函数,放弃写WAL日志,从而提高数据写入的性能。
    值得注意的是:谨慎选择关闭WAL日志,因为这样的话,一旦RegionServer宕机,Put/Delete的数据将会无法根据WAL日志进行恢复。
2.3 批量写
    通过调用HTable.put(Put)方法可以将一个指定的row key记录写入HBase,同样HBase提供了另一个方法:通过调用HTable.put(List<Put>)方法可以将指定的row key列表,批量写入多行记录,这样做的好处是批量执行,只需要一次网络I/O开销,这对于对数据实时性要求高,网络传输RTT高的情景下可能带来明显的性能提升。







========================================================================================================================
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值