kudu

kudu是什么?

Apache Kudu是由Cloudera开源的存储引擎,可以同时提供低延迟的随机读写和高效的数据分析能力。Kudu支持水平扩展,使用Raft协议进行一致性保证,并且与Cloudera Impala和Apache Spark等当前流行的大数据查询和分析工具结合紧密。
现在提起大数据存储,我们能想到的技术有很多,比如HDFS,以及在HDFS上的列式存储技术Apache Parquet,Apache ORC,还有以KV形式存储半结构化数据的Apache HBase和Apache Cassandra等等。既然有了如此多的存储技术,Cloudera公司为什么要开发出一款全新的存储引擎Kudu呢?
对于会被用来进行分析的静态数据集来说,使用Parquet或者ORC存储是一种明智的选择。但是目前的列式存储技术都不能更新数据(补充:ORC是可以的),而且随机读写性能感人。而可以进行高效随机读写的HBase、Cassandra等数据库,却并不适用于基于SQL的数据分析方向。所以现在的企业中,经常会存储两套数据分别用于实时读写与数据分析,先将数据写入HBase中,再定期通过ETL到Parquet进行数据同步(该使用场景与常见金融hadoop平台的流程并不太一致)。
关键词: 随机访问
基于HDFS的存储技术,比如Parquet,具有高吞吐量连续读取数据的能力;而HBase和Cassandra等技术适用于低延迟的随机读写场景,那么有没有一种技术可以同时具备这两种优点呢?Kudu提供了一种“happy medium”的选择:

 

场景选择

Kudu不但提供了行级的插入、更新、删除API,同时也提供了接近Parquet性能的批量扫描操作。使用同一份存储,既可以进行随机读写,也可以满足数据分析的要求。

kudu总览

Tables和Schemas

从用户角度来看,Kudu是一种存储结构化数据表的存储系统。
在一个Kudu集群中可以定义任意数量的table,每个table都需要预先定义好schema。
每个table的列数是确定的,每一列都需要有名字和类型
每个表中可以把其中一列或多列定义为主键。
这么看来,Kudu更像关系型数据库
不过Kudu目前还不能像关系型数据一样支持二级索引。

Kudu使用确定的列类型,而不是类似于NoSQL的“everything is byte”。
这可以带来两点好处:
确定的列类型使Kudu可以进行类型特有的编码。
可以提供 SQL-like 元数据给其他上层查询工具,比如BI工具

读写操作

用户可以使用 Insert,Update和Delete API对表进行写操作。 (非SQL)
不论使用哪种API,都必须指定主键。
但批量的删除和更新操作需要依赖更高层次的组件(比如Impala、Spark)。
Kudu目前还不支持多行事务。
而在读操作方面,Kudu只提供了Scan操作来获取数据。
用户可以通过指定过滤条件来获取自己想要读取的数据,但目前只提供了两种类型的过滤条件:主键范围和列值与常数的比较。
由于Kudu在硬盘中的数据采用列式存储,所以只扫描需要的列将极大地提高读取性能。

一致性模型

Kudu为用户提供了两种一致性模型。
默认的一致性模型是snapshot consistency。这种一致性模型保证用户每次读取出来的都是一个可用的快照,但这种一致性模型只能保证单个client可以看到的数据,但不能保证多个client每次取出的都是一样的数据。
另一种一致性模型external consistency。可以在多个client之间保证每次取到的都是数据,但是Kudu没有提供默认的实现,需要用户做一些额外工作。
为了实现external consistency,Kudu提供了两种方式:
在client之间传播timestamp token。在一个client完成一次写入后,会得到一个timestamp token,然后这个client把这个token传播到其他client,这样其他client就可以通过token取到数据了。不过这个方式的复杂度很高。
通过commit-wait方式,这有些类似于Google的Spanner。但是目前基于NTP的commit-wait方式延迟实在有点高。不过Kudu相信,随着Spanner的出现,未来几年内基于real-time clock的技术将会逐渐成熟。

Kudu的架构

KUDU架构

Kudu使用单个的Master节点,用来管理集群的元数据,并且使用任意数量的Tablet Server节点用来存储实际数据。
Master
Kudu的master节点负责整个集群的元数据管理和服务协调。它承担着以下功能:
作为catalog manager,master节点管理着集群中所有table和tablet的schema及一些其他的元数据。
作为cluster coordinator,master节点追踪着所有server节点是否存活,并且当server节点挂掉后协调数据的重新分布。
作为tablet directory,master跟踪每个tablet的位置。

Catalog Manager

Kudu的master节点会持有一个单tablet的table——catalog table,但是用户不能直接访问。
master将内部的catalog信息写入该tablet,并且将整个catalog的信息缓存到内存中。
元数据信息占用的空间不大,所以master不容易存在性能瓶颈。
catalog table保存了所有table的schema的版本以及table的状态(创建、运行、删除等)。

Cluster Coordination

Kudu集群中的每个tablet server都需要配置master的主机名列表。
当集群启动时,tablet server会向master注册,并发送所有tablet的信息。
tablet server第一次向master发送信息时会发送所有tablet的全量信息,后续每次发送则只会发送增量信息,仅包含新创建、删除或修改的tablet的信息。
作为cluster coordination,master只是集群状态的观察者。对于tablet server中tablet的副本位置、Raft配置和schema版本等信息的控制和修改由tablet server自身完成。master只需要下发命令,tablet server执行成功后会自动上报处理的结果。

Tablet Directory

因为master上缓存了集群的元数据,所以client读写数据的时候,肯定是要通过master才能获取到tablet的位置等信息。
但是如果每次读写都要通过master节点的话,那master就会变成这个集群的性能瓶颈,所以client会在本地缓存一份它需要访问的tablet的位置信息,这样就不用每次读写都从master中获取。
因为tablet的位置可能也会发生变化(比如某个tablet server节点crash掉了),所以当tablet的位置发生变化的时候,client会收到相应的通知,然后再去master上获取一份新的元数据信息。

Tablet存储

tablet存储主要想要实现的目标为:

  • 快速的列扫描
  • 低延迟的随机读写
  • 一致性的性能

RowSets

在Kudu中,tablet被细分为更小的单元,叫做RowSets。
一些RowSet仅存在于内存中,被称为MemRowSets,
而另一些则同时使用内存和硬盘,被称为DiskRowSets。
任何一行未被删除的数据都只能存在于一个RowSet中。
无论任何时候,一个tablet仅有一个MemRowSet用来保存插入的数据,并且有一个后台线程会定期把内存中的数据flush到硬盘上。
当一个MemRowSet被flush到硬盘上以后,一个新的MemRowSet会替代它。
而原有的MemRowSet会变成一到多个DiskRowSet。
flush操作是完全同步进行的,在进行flush时,client同样可以进行读写操作。

MemRowSet

MemRowSets是一个可以被并发访问并进行过锁优化的B-tree,主要是基于MassTree来设计的,但存在几点不同:
Kudu并不支持直接删除操作,由于使用了MVCC,所以在Kudu中删除操作其实是插入一条标志着删除的数据,这样就可以推迟删除操作。
类似删除操作,Kudu也不支持原地更新操作。
将tree的leaf链接起来,就像B+-tree。这一步关键的操作可以明显地提升scan操作的性能。
没有实现字典树(trie树),而是只用了单个tree,因为Kudu并不适用于极高的随机读写的场景。
与Kudu中其他模块中的数据结构不同,MemRowSet中的数据使用行式存储。因为数据都在内存中,所以性能也是可以接受的,而且Kudu对在MemRowSet中的数据结构进行了一定的优化。

DiskRowSet

当MemRowSet被flush到硬盘上,就变成了DiskRowSet。当MemRowSet被flush到硬盘的时候,每32M就会形成一个新的DiskRowSet,这主要是为了保证每个DiskRowSet不会太大,便于后续的增量compaction操作。
Kudu通过将数据分为base data和delta data,来实现数据的更新操作。
Kudu会将数据按列存储,数据被切分成多个page,并使用B-tree进行索引。
除了用户写入的数据,Kudu还会将主键索引存入一个列中,并且提供布隆过滤器来进行高效查找。

Compaction

为了提高查询性能,Kudu会定期进行compaction操作,合并delta data与base data,对标记了删除的数据进行删除,并且会合并一些DiskRowSet。

分区

和许多分布式存储系统一样,Kudu的table是水平分区的。
BigTable只提供了range分区,Cassandra只提供hash分区,而Kudu提供了较为灵活的分区方式。
当用户创建一个table时,可以同时指定table的的partition schema,partition schema会将primary key映射为partition key。一个partition schema包括0到多个hash-partitioning规则和一个range-partitioning规则。通过灵活地组合各种partition规则,用户可以创造适用于自己业务场景的分区方式。

Kudu的应用

Kudu的应用场景很广泛,比如可以进行实时的数据分析,用于数据可能会存在变化的时序数据应用等,甚至还有人探讨过使用Kudu替代Kafka的可行性。
KUDU VS HBASE

HBASE

hbase 和 ElasticSearch的组件介绍就略过了,这里只讲为什么 这两种组件有时也会被认为是文件格式的一种。
hbase是个构建hdfs上的nosql数据库,其底层文件格式是sequencefiles
相对于hive,hbase中的数据表其实是独立的,HBase利用Hadoop MapReduce来处理HBase中的数据(星环的hyperbase用spark作为计算引擎)。
Hadoop HDFS为HBase提供了高可靠性的底层存储支持,Hadoop MapReduce为HBase提供了高性能的计算能力,Zookeeper为HBase提供了稳定服务和failover机制。 Pig和Hive还为HBase提供了高层语言支持,使得在HBase上进行数据统计处理变的非常简单。 Sqoop则为HBase提供了方便的RDBMS(关系型数据库)数据导入功能,使得RDBMS数据向HBase中迁移变的非常方便。
我们常使用的hive提供对hbase的数据表的SQL语言支持,所以有hbase格式的hive表这么一种说法。在使用上,可以认为hive中基于hbase中的数据表的表是一种映射表,类似于hive中构建映射txt表,所以hbase也被认为是hive支持的一种数据存储格式。

ElasticSearch

ElasticSearch已经可以与YARN、Hadoop、Hive、Pig、Spark、Flume等大数据技术框架整合起来使用,尤其是在添加数据的时候,可以使用分布式任务来添加索引数据,使用Hive操作ElasticSearch中的数据,将极大的方便开发人员。
HIVE支持创建ES的映射表,语法类似hbase映射表,因此ES也经常会被视作hive支持的一种数据格式。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值