大数据技术原理与应用——分布式数据库 HBase
4.1 概述
4.1.1 从 BigTable 说起
BigTable 是一个分布式存储系统
BigTable 起初用于解决典型的互联网搜索问题
建立互联网索引
1.爬虫持续不断地抓取新页面,这些页面每页一行地存储到 BigTable 里
2.MapReduce 计算作业运行在整张表上,生成索引,为网络搜索应用做准备
搜索互联网
3.用户发起网络搜索请求
4.网络搜索应用查询建立好的索引,从 BigTable 得到网页
5.搜索结果提交给用户
BigTable 是一个分布式数据管理系统
利用谷歌提出的 MapReduce 分布式并行计算模型来处理海量数据
利用谷歌分布式文件系统 GFS 作为底层数据存储
采用 Chubby 提供协同服务管理
可以扩展到 PB 级别的数据和上千台机器,具有广泛应用性、可扩展性、高性能和高可用性等特点
谷歌的许多项目都存储在 BigTable 中,包括搜索、地图、财经、打印、社交网站 Orkut、视频共享网站 You Tube 和博客网站 Blogger 等
4.1.2 HBase 简介
HBase 是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌 BigTable 的开源实现,主要用来存储非结构化和半结构化的松散数据。HBase 的目标是处理庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过10亿行数据和数百列元素组成的数据表。
HBase 和 BigTable 的底层技术对应关系
数据存储管理 | BigTable | HBase |
---|---|---|
文件存储系统 | GFS | HDFS |
海量数据处理 | MapReduce | Hadoop、MapReduce |
协同服务管理 | Chubby | Zookeeper |
关系数据库已经流行很多年,并且 Hadoop 已经有了 HDFS 和 MapReduce,为什么需要 HBase?
Hadoop 可以很好地解决大规模数据的离线批量处理问题,但是,受限于 Hadoop MapReduce 编程框架的高延迟数据处理机制,使得 Hadoop 无法满足大规模数据实时处理应用的需求。
HDFS 面向批量访问模式,不是随机访问模式。
传统的通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题(分库分表也不能很好解决)。
传统关系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间。
随着整个数据规模的不断增大,我们后来会搭建一个新的优化方案,叫主从复制
4.1.3 HBase 与传统关系数据库的对比分析
HBase 与传统的关系数据库的区别主要体现在以下几个方面:
(1)数据类型:关系数据库采用关系模型,具有丰富的数据类型和存储方式,HBase 则采用了更加简单的数据模型,它把数据存储为未经解释的字符串。
(2)数据操作:关系数据库中包含了丰富的操作,其中会涉及复杂的多表连接。HBase 操作则不存在复杂的表与表之间的关系,只有简单的插入、查询、删除、清空等,因为 HBase 在设计上就避免了复杂的表和表之间的关系。
(3)存储模式:关系数据库是基于行模式存储的。HBase 是基于列存储的,每个列族都由几个文件保存,不同列族的文件是分离的。
(4)数据索引:关系数据库通常可以针对不同列构建复杂的多个索引,以提高数据访问性能。HBase 只有一个索引——行键,通过巧妙的设计,HBase 中的所有访问方法,或者通过行键访问,或者通过行键扫描,从而使得整个系统不会慢下来。
(5)数据维护:在关系数据库中,更新操作会用最新的当前值去替换记录中原来的旧值,旧值被覆盖后就不会存在。而在 HBase 中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留。
(6)可伸缩性:关系数据库很难实现横向扩展,纵向扩展的空间也比较有限。相反,HBase 和 BigTable 这些分布式数据库就是为了实现灵活的水平扩展而开发的,能够轻易地通过在集群中增加或者减少硬件数量来实现性能的伸缩。
4.2 HBase 访问接口
类型 | 特点 | 场合 |
---|---|---|
Native Java API | 最常规和高效的访问方式 | 适合Hadoop MapReduce作业并行批处理HBase表数据 |
HBase Shell | HBase的命令行工具,最简单的接口 | 适合HBase管理使用 |
Thrift Gateway | 利用Thrift序列化技术,支持C++、PHP、Python等多种语言 | 适合其他异构系统在线访问HBase表数据 |
REST Gateway | 解除了语言限制 | 支持REST风格的Http API访问HBase |
Pig | 使用Pig Latin流式编程语言来处理HBase中的数据 | 适合做数据统计 |
Hive | 简单 | 当需要以类似SQL语言方式来访问HBase的时候 |
4.3 HBase 数据模型
4.3.1 数据模型概述
- HBase是一个稀疏、多维度、排序的映射表,这张表的索引是行键、列族、列限定符和时间戳
- 每个值是一个未经解释的字符串,没有数据类型
- 用户在表中存储数据,每一行都有一个可排序的行键和任意多的列
- 表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,同一列族里面的数据存储在一起
- 列族支持动态扩展,可以很轻松地添加一个列族或列,无需预先定义列的数量以及类型,所有列均以字符串形式存储,用户需要自行进行数据类型转换
- HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留(这是和HDFS只允许追加不允许修改的特性相关的)
4.3.2 数据模型相关概念
- 表:HBase采用表来组织数据,表由行和列组成,列划分为若干个列族
- 行:每个HBase表都由若干行组成,每个行由行键(row key)来标识
- 列族:一个HBase表被分组成许多“列族”(Column Family)的集合,它是基本的访问控制单元
- 列限定符:列族里的数据通过列限定符(或列)来定位
- 单元格:在HBase表中,通过行、列族和列限定符确定一个“单元格”(cell),单元格中存储的数据没有数据类型,总被视为字节数组byte[]
- 时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引(更新的时候,旧的版本仍然保留,新的版本会通过时间戳来进行区分)
4.3.3 数据坐标
- HBase中需要根据行键、列族、列限定符和时间戳来确定一个单元格,因此,可以视为一个“四维坐标”,即[行键,列族,列限定符,时间戳]
4.3.4 概念视图
4.3.5 物理视图
4.3.6 面向列的存储
4.4 HBase的实现原理
4.4.1 HBase功能组件
- HBase的实现包括三个主要的功能组件:
——(1)库函数:链接到每个客户端
——(2)一个Master主服务器
——(3)许多个Region服务器 - 主服务器Master负责管理和维护HBase表的分区信息,维护Region服务器列表,分配Reigion,负载均衡
- Region服务器负责存储和维护分配给自己的Region,处理来自客户端的读写请求
- 客户端并不是直接从Master主服务器上读取数据,而是在获得Region的存储位置信息后,直接从Region服务器上读取数据
- 客户端并不依赖Master,而是通过Zookeeper来获得Region位置信息,大多数客户端甚至从来不和Master通信,这种设计方式使得Master负载很小
4.4.2 表和Region
- 开始只有一个Region,后来不断分裂
- Region拆分操作非常快,接近瞬间,因为拆分之后的Region读取的仍然是原存储文件,直到“合并”过程把存储文件异步地写到独立的文件之后,才会读取新文件
- 每个Region默认大小是100MB到200MB(2006年以前的硬件配置)
- 每个Region的最佳大小取决于单台服务器的有效处理能力
- 目前每个Region最佳大小建议1GB-2GB(2013年以后的硬件配置) - 同一个Region不会被分拆到多个Region服务器
- 每个Region服务器存储10-1000个Region
4.4.3 Region的定位
- 元数据表,又名.META.表,存储了Region和Region服务器的映射关系
- 当HBase表很大时,.META.表也会被分裂成多个Region
- 根数据表,又名-ROOT-表,记录所有元数据的具体位置
- -ROOT-表只有唯一一个Region,名字是在程序中被写死的
- Zookeeper文件记录了-ROOT-表的位置
- 为了加快访问速度,.META.表的全部Region都会被保存在内存中
- 假设.META.表的每行(一个映射条目)在内存中大约占用1KB,并且每个Region限制为128MB,那么,上面的三层结构可以保存的用户数据表的Region数目的计算方法是:
(-ROOT-表能够寻址的.META.表的Region个数)×(每个.META.表的Region可以寻址的用户数据表的Region个数) - 一个-ROOT-表最多只能有一个Region,也就是最多只能有128MB,按照每行(一个映射条目)占用1KB内存计算,128MB空间可以容纳128MB/1KB=217行,也就是说,一个-ROOT-表可以寻址217个.META.表的Region。
- 同理,每个.META.表的Region可以寻址的用户数据表的Region个数是128MB/1KB=217。
- 最终,三层结构可以保存的Region数目是(128MB/1KB)×(128MB/1KB)=234个Region
4.5 HBase 运行机制
4.5.1 HBase系统架构
1.客户端
- 客户端包含访问HBase的接口,同时在缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程
2.Zookeeper服务器
- Zookeeper可以帮助选举出一个Master作为集群的总管,并保证在任何时刻总有唯一一个Master在运行,这就避免了Master的“单点失效”问题
- Zookeeper是一个很好的集群管理工具,被大量用于分布式计算,提供配置维护、域名服务、分布式同步、组服务等。
3.Master
主服务器Master主要负责表和Region的管理工作:
- 管理用户对表的增加、删除、修改、查询等操作
- 实现不同Region服务器之间的负载均衡
- 在Region分裂或合并后,负责重新调整Region的分布
- 对发生故障失效的Region服务器上的Region进行迁移
4.Region服务器
- Region服务器是HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求
4.5.2 Region服务器工作原理
1.用户读写数据过程
2.缓存的刷新
3.StoreFile的合并
1.用户读写数据过程
- 用户写入数据时,被分配到相应Region服务器去执行
- 用户数据首先被写入到MemStore和Hlog中
- 只有当操作写入Hlog之后,commit()调用才会将其返回给客户端
- 当用户读取数据时,Region服务器会首先访问MemStore缓存,如果找不到,再去磁盘上面的StoreFile中寻找
2.缓存的刷新
- 系统会周期性地把MenStore缓存里的内容刷写到磁盘的StoreFile文件中,清空缓存,并在Hlog里面写入一个标记
- 每次刷写都生成一个新的StoreFile文件,因此,每个Store包含多个StoreFile文件
- 每个Region服务器都有一个自己的HLog文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧的Hlog文件,开始为用户提供服务
3.StoreFile的合并
- 每次刷写都生成一个新的StoreFile,数量太多,影响查找速度
- 调用Store.compact()把多个合并成一个
- 合并操作比较耗费资源,只有数量达到一个阈值才启动合并
4.5.3 Store工作原理
- Store是Region服务器的核心
- 多个StoreFile合并成一个
- 单个StoreFile过大时,又触发分裂操作,1个父Region被分裂成两个子Region
4.5.4 HLog工作原理
- 分布式环境必须要考虑系统出错。HBase采用HLog保证系统恢复
- HBase系统为每个Region服务器配置了一个HLog文件,它是一种预写式日志(Write Ahead Log)
- 用户更新数据必须首先写入日志后,才能写入MenStore缓存,并且,直到MemStore缓存内容对应的日志已经写入磁盘,该缓存内容才能被刷写到磁盘
- Zookeeper会实时检测每个Region服务器的状态,当某个Region服务器发生故障时,Zookeeper会通知Master
- Master首先会处理该故障Region服务器上面遗留的HLog文件,这个遗留的HLog文件中包含了来自多个Region对象的日志记录
- 系统会根据每条日志记录所属的Region对象对HLog数据进行拆分,分别放到相应Region对象的目录下,然后,再将失效的Region重新分配到可用的Region服务器中,并把与该Region对象相关的HLog日志记录也发送给相应的Region服务器
- Region服务器领取到分配给自己的Region对象以及与之相关的HLog日志记录以后,会重新做一遍日志记录中的各种操作,把日志记录中的数据写入到MemStore缓存中,然后,刷新到磁盘的StoreFile文件中,完成数据恢复
- 共用日志优点:提高对表的写操作性能;缺点:恢复时需要分析日志
HBase 应用方案
HBase在实际应用中的性能优化方法
HBase怎么检测性能
HBase之上如何构建SQL引擎和HBase二级索引
- Hive:从Hive 0.6.0版本开始就已经具备了和HBase的整合功能,它们的接口互相通信就可以实现对HBase的访问
- Phoenix:是知名的SaaS服务供应商Salesforce的产品。这个Salesforce.com公司开源了一个项目叫Phoenix,它是构建在Apache HBase之上的一个SQL中间层通过这么一个产品允许开发者HBase上执行SQL查询
构建HBase二级索引
-
二级索引,又叫辅助索引
-
关系数据库中,可以对学号字段建立 主索引primary key,然后对姓名和成绩字段构建多个辅助索引或者二级索引
-
关系数据库当中支持这种索引方式
怎么利用特性去构建二级索引
Coprocessor提供了两个实现:endpoint和observer -
endpoint相当于关系型数据库的存储过程,而observer就相当于触发器
-
observer允许我们在记录put前后做一些处理,因此,而我们可以在插入数据时同步写入索引表
优点:
- 非侵入性:引擎构建在HBase之上,既没有对HBase进行任何改动,也不需要上层应用做任何妥协
缺点
- 每插入一条数据需要向索引表插入数据,即耗时是双倍的,对HBase的集群的压力也是双倍的