大数据之 HBase 理论知识

——HBase 简介

定义

HBase 是一种 分布式、可扩展、支持海量数据存储的 NoSQL 数据库

数据模型

逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从底层物理存储结构(K-V)来看,HBase 更像是一个 multi-dimensional-map(多维 map)

  • 逻辑结构
    在这里插入图片描述
  • 物理存储结构
    在这里插入图片描述- 名词解释
    • Name Space:命名空间,类似于关系型数据库的 database 概念,每个命名空间下有多个表。HBase 有两个自带的命名空间,分别是 hbasedefault,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间
    • Region:类似于关系型数据库的表概念。不同的是,HBase 定义代表时只需要声明列族即可,不需要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景
    • Row:HBase 表中的每行数据都由一个 RowKey 和多个 Column 组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所有 RowKey 的设计十分重要
    • Column:HBase 中的每个列都由 Column Family 列族Column Qualifier 列限定符 进行限定,例如info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义
    • Time Stamp:用于标识数据的不同版本,每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间
    • Cell:由 {rowkey,column Family:column Qualifier,time Stamp} 唯一确定的单元。cell中的数据是没有类型的,全部是字节码形式存储

基本架构

在这里插入图片描述
Zookeeper的作用: HBase 通过 Zookeeper 来做 master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作

——HBase进阶

详细架构图

在这里插入图片描述

  • StoreFile:保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或者多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的
  • MemStore:写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile
  • WAL:由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建

写数据流程

在这里插入图片描述

  1. Client 先访问zookeeper ,获取 hbase:meta 表位于哪个 Region server
  2. 访问对应的 Region server ,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache 中,方便下次访问
  3. 与目标 Region server 进行通讯
  4. 将数据顺序写入(追加)到 WAL
  5. 将数据写入对应的 MemStore,数据会在 MemStore 进行排序
  6. 向客户端发送 ack
  7. 等达到 MemStore 的刷写时机后,将数据写到 HFile

MemStore Flush

在这里插入图片描述
刷写时机

  1. 当某个 memstore 的大小达到了 hbase.hregion.memstore.flush.size(默认值128M),其所在 region 的所有 memstore 都会刷写。当 memstore 的大小达到了 hbase.hregion.memstore.flush.size * hbase.hregion.memstore.block.multiplire(默认值4)时,会阻止继续往该 memstore 写数据
  2. 当 regionserver 中 memstore 的总大小达到 java_heapsize * hbase.regionserver.global.memstrore.size(默认值0.4)* hbase.regionserver.global.memstore.size.lower.limit(默认值0.95),region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写,直到 regionserver 中所有memstore 的总大小的减小到上述值以下。当 regionserver 中 memstore 的总大小达到 java_heapsize * hbase.regionserver.global.memstrore.size(默认值0.4)时,会阻止继续往所有的 memstore 写数据
  3. 到达自动刷写的时间,也会触发 memstore flush 。自动刷新的时间间隔由该属性进行配置 hbase.regionserver.optionalcacheflushinterval(默认1小时)
  4. 当 WAL 文件的数量超过 hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减少到 hbase.regionserver.max.log 以下(该属性名已经废弃,现无需手动设置,最大值为32)

读数据流程

在这里插入图片描述

  1. Client 先访问zookeeper ,获取 hbase:meta 表位于哪个 Region server
  2. 访问对应的 Region server ,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache 中,方便下次访问
  3. 与目标 Region server 进行通讯
  4. 分别在 Block Cache(读缓存),MemStore 和 StoreFile(HFile)中查询目标数据,并将查询到的所有数据进行合并,此处所有数据是指同一条的数据的不同版本或者不同的类型
  5. 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为64KB)缓存到 Block Cache
  6. 将合并后的最终结果返回给客户端

StoreFile Compaction

  • 由于 memstore 每次刷写都会生成一个新的 HFile,且同一个字段的不同版本和不同类型有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile,为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction
  • Compaction 分为两种,分别是 Minor CompactionMajor Compaction。Minor Compaction 会将临近的若干个较小的 HFile 合并成一个大的的 HFile ,但不会清理过期和删除的数据。Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大的 HFile,并且会清理掉过期和删除的数据

Region Split

默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。

Region Split 时机

  1. 当1个 Region 中的某个 Store 下所有 StoreFile 的总大小超过 Min(R^2 * hbase.hregion.memstrore.flush.size,hbase.hregion.max.fileszize),该 Region 就会进行拆分,其中 R 为当前 Region Server 中属于该 Table 的个数(0.94版本之后)
  2. 刚1个 Region 中的某个 Store 下的所有 StoreFile 的总大小超过 hbase.hregion.max.filesize,该 Region 就会进行拆分(0.94版本之前)

——HBase & Hive

两者之间对比

Hive

  1. 数据仓库:Hive 的本质其实就是相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用 HQL 去管理查询
  2. 用于数据分析、清晰:Hive 适用于离线的数据分析和清洗,延迟较高
  3. 基于 HDFS、MapReduce:Hive 存储的数据依旧在 DataNode 上,编写 HQL 语句终将是转换为 MapReduce 代码执行

HBase

  1. 数据库:是一种面向列族存储的非关系型数据库
  2. 用于存储结构化和非结构化的数据:适用于单表非关系型数据的存储,不适合做关联查询,类似于JOIN等操作
  3. 基于 HDFS:数据持久化存储的体现形式是 HFile,存放在 DataNode 中,被 RegionServer 以 region 的形式进行管理
  4. 延迟较低,接入在线业务使用:面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速度
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序少年不秃头

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值