HBase简介

一、Hbase是什么?

Hbase属于NoSql的一种。

二、为什么会产生HBase?

要想明白为什么产生 HBase,就需要先了解一下 Hadoop 存在的限制?Hadoop 可以通过 HDFS 来存储结构化、半结构甚至非结构化的数据,它是传统数据库的补充,是海量数据存储的最佳方法,它针对大文件的存储,批量访问和流式访问都做了优化,同时也通过多副本解决了容灾问题。

但是 Hadoop 的缺陷在于它只能执行批处理,并且只能以顺序方式访问数据,这意味着即使是最简单的工作,也必须搜索整个数据集,无法实现对数据的随机访问。实现数据的随机访问是传统的关系型数据库所擅长的,但它们却不能用于海量数据的存储。在这种情况下,必须有一种新的方案来解决海量数据存储和随机访问的问题,HBase 就是其中之一 (HBase,Cassandra,couchDB,Dynamo 和 MongoDB 都能存储海量数据并支持随机访问)。

1、Hadoop生态系统

2、HBase简介

1)HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库

2)利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务

3)主要用来存储非结构化和半结构化的松散数据(列存 NoSQL 数据库)

操作HBase的方式:shell        JavaAPI        Phoenix

3、Hbase系统架构

 注意:HLog是存在于HRegionServer上的,而非HRegion上,图中有误

1)Master

1.为Region server分配region

2.负责Region server的负载均衡

3.发现失效的Region server并重新分配其上的region

4.管理用户对table的增删改操作(对表结构增删改,即元数据)

2)RegionServer

1.Region server维护region,处理对这些region的IO请求

2.Region server负责切分在运行过程中变得过大的region 

3)Region

1.HBase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据(每个region都有范围,startkey,endkey);每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阀值的时候,region就会等分为两个新的region(裂变)。

2.当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上。 

 4)Memstore 与 storefile

1.一个region由多个store组成,一个store对应一个CF(列族),store包括位于内存中的memstore(一个)和位于磁盘中的storefile(零至多个),写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile 

2.当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major、compaction),在合并过程中会进行版本合并和删除工作(major),形成更大的storefile

3.当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡

4.客户端检索数据,先在memstore找,找不到再找storefile 

compaction操作:

Minor:选取一些小的,相邻的storeFile合并成一个更大的storeFile

Major:指将所有的storeFile合并成一个storeFile(到一定时间执行,可能触发flush风暴)

             清理三类:被删除数据,TTL过期数据,版本号超过设定版本号的数据

4、HBase数据模型

HBase中有一个概念——三维有序

1、rk字典升序

2、CF字典升序

3、t(Timestamp时间戳)自然降序(最新的在最前面) 

来唯一确定一个cell(单元格),如不指定t,则默认最新的

1)Region

1.HRegion是HBase中分布式存储和负载均衡的最小单元。最小单元就表示不同的HRegion可以分布在不同的 HRegion server上。

2.HRegion由一个或者多个Store组成,每个store保存一个columns family(列族)。

3.每个Strore又由一个memStore和零至多个StoreFile组成。如图:StoreFile以HFile格式保存在HDFS上。(HFile-->Hdfs-->磁盘)

注意:一般一个Region里1~3个store(列簇)

2)RowKey

1.唯一标识一行数据

2.可以通过RowKey获取一行数据

3.按照字典顺序排序的

4.Row key只能存储64k的字节数据  10-100byte

3)Column Family(列族)和Qualifier(列)

1.HBase表中的每个列都归属于某个列族,列族必须作为表模式定义的一部分预先给出。如 create ‘test’, ‘info’

2.列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如 info:name , info:age , 新的列族成员(列)可以随后按需、动态加入。

3.权限控制、存储以及调优都是在列族层面进行的;

4.HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。 

4)Timestamp时间戳

1.在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。

2.时间戳的类型是 64位整型。

3.时间戳可以由HBase(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间

4.时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。 

5)Cell单元格

1.由行和列的坐标交叉决定。

2.单元格是有版本的。

3.单元格的内容是未解析的字节数组。

4.由{row key, column( =<family> +<qualifier>), version} 唯一确定的单元。cell中的数据是没有类型的,全部是字节码形式存储。 

6)HLog(WAL / Write Ahead Log)容错机制

1.HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是”写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。

2.HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。 

5、读写流程

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值