Datawahle组队学习——妙趣横生大数据 Day3

HBase是一个构建在Hadoop上的分布式列存储数据库,适合非结构化和半结构化数据的随机访问。它提供了行键索引,支持多版本和时间戳,具有高可伸缩性。数据模型包括表、行、列族和单元格,数据按列存储,通过Region进行分布式管理,利用Region服务器和Zookeeper实现高可用性。
摘要由CSDN通过智能技术生成

Datawhale在这里插入图片描述
大数据技术相关内容的导论课程:妙趣横生大数据 Juicy Big Data


四、HBase

1. 背景

  1. Hadoop 的局限性:批处理、顺序的方式访问数据,无法实现对数据的随机访问

  2. 数据结构的分类:结构化数据、半结构化数据、非结构化数据

  3. 为存储不同数据结构,数据库包括:

    关系型数据库 (MySQL)、键值存储数据库 (Redis)、列存储数据库 (HBase)、面向文档数据库 (MongoDB)、图形数据库 (Neo4J)、搜索引擎数据库 (Solr)

  4. HBase与传统的关系型数据库的区别主要在于:数据类型 (存储为未经解释的字符串)、数据操作(不会把数据充分规范化)、存储模式(列存储)、数据索引 (支持行键索引)、数据维护(保留一段时间)、可伸缩性(水平扩展性好)

2. HBase 概述

  1. 构建在Hadoop文件系统之上的一个高可靠、高性能、面向列、可伸缩分布式数据库,主要用来存储非结构化半结构化的松散数据。
  2. 提供对大量结构化数据的快速随机访问。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mASUsLA3-1676984437639)(null)]

3. HBase 数据模型

相关概念
  • :HBase采用表来组织数据,表由行和列组成,列划分为若干个列族。
  • :每个HBase表都由若干行组成,每个行由行键(row key)来标识。
  • 列族:一个HBase表被分组成许多“列族”(Column Family)的集合,它是基本的访问控制单元。表中的每个列都归属于某个列族,数据可以被存放到列族的某个列下面(列族需要先创建好)。在创建完列族以后,就可以使用同一个列族当中的列。列名都以列族作为前缀。例如,courses:historycourses:math这两个列都属于courses这个列族。
  • 列限定符:列族里的数据通过列限定符(或列)来定位。
  • 单元格:在HBase表中,通过行、列族和列限定符确定一个“单元格”(cell),单元格中存储的数据没有数据类型,总被视为字节数组byte[]
  • 时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引。
img
数据坐标
  1. 一个“四维坐标”,即 [行键, 列族, 列限定符, 时间戳]

  2. HBase可以视为一个键值数据库:‘四维坐标’(键)、单元格内容(值)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Z9WWDcBl-1676984436161)(null)]

概念视图

一个表可以视为一个稀疏、多维的映射关系

  • eg:存储网页的HBase表的片段:每个行都包含相同的列族,行不需要在每个列族里存储数据

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8nv7fKkH-1676984432775)(null)]

物理视图

采用基于列的存储方式(与传统关系数据库的最大区别)

  • eg:前述概念视图进行物理存储,会存储以下两个小片段

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rWdf7oyK-1676984434286)(null)]

面向列的存储
  • 数据按列存储,每一列单独存放
  • 数据即是索引
  • 只访问查询涉及的列,大量降低系统IO
  • 每一列由一个线索来处理,查询采用并发处理方式
  • 数据类型一致,数据特征相似,采用高效压缩方式
  • 缺陷:执行链接操作时,需要昂贵的元组重构代价

4. HBase 实现原理

HBase 功能组件
  • 库函数
    • 用于连接到每个客户端
  • 一个 Master 主服务器
    • 负责管理和维护HBase表的分区信息,维护Region服务器列表,分配Region,负载均衡
  • 许多 Region 服务器
    • 负责存储和维护分配给自己的Region,处理来自客户端的读写请求
    • 客户端读取数据:获得Region的存储位置信息后,直接从Region服务器上读取数据
    • 客户端通过Zookeeper获得Region位置信息,大多数客户端甚至从来不和Master通信
表和 Region
  • HBase存储了很多表,每个HBase表有包含大量行(无法存储在一台机器)

  • 一个 HBase 表被划分成多个 Region 分区

    • Region包含了位于某个值域区间内的所有数据,是负载均衡和数据分发的基本单位
  • 一个 Region 会分裂成多个新的 Region

Region 定位
  • 每个Region都有一个RegionID来标识它的唯一性,这样,一个Region标识符就可以表示成表名+开始主键+RegionID
  • “元数据表”,又名.META.表: Region标识符Region服务器标识
  • .META.表也会被分裂成多个Region
  • “根数据表”,-ROOT-`表:记录所有元数据的具体位置
    • -ROOT-表是不能被分割的,永远只存在一个Region用于存放-ROOT-
    • 存放-ROOT-表的唯一个Region,它的名字是在程序中被写死的,Master主服务器永远知道它的位置

5. HBase 运行机制

系统架构
  • 客户端

    • 客户端包含访问HBase的接口
    • 缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程
  • Zookeeper服务器

    • 帮助选举出一个Master作为集群的总管,并保证在任何时刻总有唯一一个Master在运行,这就避免了Master的“单点失效”问题
    • 很好的集群管理工具
  • Master服务器:主服务器Master主要负责表和Region的管理工作:

    • 管理用户对表的增加、删除、修改、查询等操作
    • 实现不同Region服务器之间的负载均衡
    • 在Region分裂或合并后,负责重新调整Region的分布
    • 对发生故障失效的Region服务器上的Region进行迁移
  • Region服务器

    • HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求
Region服务器的工作原理
  1. 用户读写数据过程
    • 用户写入数据时,被分配到相应Region服务器去执行
    • 用户数据首先被写入到MemStoreHlog
    • 只有当操作写入Hlog之后,调用commit() 方法才会将其返回给客户端
    • 当用户读取数据时, Region服务器会首先访问MemStore缓存,如果找不到,再到磁盘的StoreFile中寻找
  2. 缓存的刷新
    • 系统会周期性地把MemStore缓存里的内容刷写到磁盘的StoreFile文件中,清空缓存,并在Hlog里面写入一个标记
    • 每次刷写都生成一个新的StoreFile文件,因此,每个Store包含多个StoreFile文件
    • 每个Region服务器都有一个自己的HLog文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧的Hlog文件,开始为用户提供服务
  3. StoreFile的合并
    • 每次刷写都生成一个新的StoreFile,数量太多,影响查找速度
    • 调用Store.compact()把多个StoreFile合并成一个
    • 合并操作比较耗费资源,只有数量达到一定阈值后才会启动合并
Store工作原理
  • Store是Region服务器的核心
  • 多个StoreFile合并成一个StoreFile
  • 单个StoreFile过大时,又触发分裂操作,1个父Region被分裂成两个子Region
HLog工作原理

保证系统发生故障时能够恢复到正确的状态

[第四章:HBase (datawhalechina.github.io)](https://datawhalechina.github.io/juicy-bigdata/#/ch4 HBase?id=_432-表和region)

实验


Datawhale在这里插入图片描述
大数据技术相关内容的导论课程:妙趣横生大数据 Juicy Big Data

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值