吐血总结了各个中间件是如何实现持久化的

到目前为止,我也已经接触到了不少的中间件了,比如说「Elasticsearch」「Redis」「HDFS」「Kafka」「HBase」等等。

可以发现的是,它们的持久化机制都差不得太多。今天想来总结一下,一方面想来回顾一下这些组件,一方面给还没入门过这些中间件的同学总结一下持久化的”套路“,后面再去学习的时候就会轻松很多。

持久化

下面我们就直接来分别回顾一下各个中间件/组件的持久化机制,最后再总结就好了。

为什么要持久化?原因也很简单:数据需要存储下来,不希望出了问题导致数据丢失

Elasticsearch

Elasticsearch是一个全文搜索引擎,对模糊搜索非常擅长。

Elasticsearch在写数据的时候,会先写到内存缓存区,然后写到translog缓存区,每隔5s将translog缓冲区的数据刷到磁盘中

Kafka

众所周知,Kafka是一个高吞吐量的消息队列,那它是怎么持久化的呢?

Kafka relies heavily on the filesystem for storing and caching messages.

没错Kafka用的是文件系统来存储的。

在Kafka官网上其实也说了,Kafka的持久化依赖操作系统的pagecache和顺序写来实现的。

HDFS

HDFS是分布式文件系统,能存储海量的数据,那HDFS在写入数据的时候是怎么样的呢?

HDFS Client客户端无论读写都需要走到NameNode去获取/增删改文件的元数据,而NameNode则是专门维护这些元数据的地方。

所以,在HDFS写数据,需要先去NameNode上询问这些切分好的block往哪几个DataNode上写数据。

为了提高NameNode的效率,在写数据的时候,NameNode实际上是操作的是内存,然后涉及到增删改的数据顺序写到editlog日志文件上

Redis

Redis是基于内存的,如果不想办法将数据保存在硬盘上,一旦Redis重启(退出/故障),内存的数据将会全部丢失。

我们肯定不想Redis里头的数据由于某些故障全部丢失(导致所有请求都走MySQL),即便发生了故障也希望可以将Redis原有的数据恢复过来,所以Redis有RDB和AOF的持久化机制。

RDB:基于快照,将某一时刻的所有数据保存到一个RDB文件中。

AOF(append-only-file),当Redis服务器执行写命令的时候,将执行的写命令保存到AOF文件中。

AOF持久化功能的实现可以分为3个步骤:

命令追加:命令写入aof_buf缓冲区

文件写入:调用flushAppendOnlyFile函数,考虑是否要将aof_buf缓冲区写入AOF文件中

文件同步:考虑是否将内存缓冲区的数据真正写入到硬盘

HBase

HBase是一个能存储海量数据的数据库

HBase在写数据的时候,会先写到Mem Store,当MemStore超过一定阈值,就会将内存中的数据刷写到硬盘上,形成StoreFile,而StoreFile底层是以HFile的格式保存,HFile是HBase中KeyValue数据的存储格式。

我们写数据的时候是先写到内存的,为了防止机器宕机,内存的数据没刷到磁盘中就挂了。我们在写Mem store的时候还会写一份HLog

MySQL

MySQL我们用得最多的InnoDB引擎是怎么存储的呢?它有redo log来支撑持久化的功能。

MySQL引入了redo log,内存写完了,然后会写一份redo log,这份redo log记载着这次在某个页上做了什么修改

总结

看完上面常见的中间件/组件的持久化方式,应该就不用我多说了吧?思想几乎都是一样的,只是他们记录“log”的名字不一样而已。

先写buffer,然后顺序IO写Log。防止buffer的数据还没刷到磁盘,宕机导致数据丢失。

对于Log文件,中间件也不会放任它们一直膨胀,导致体积很大:

在Redis里边,会对AOF文件进行重写

在HDFS里边,editlog会定时生成fsimage

在Elasticsearch里边,translog会根据阈值触发commit操作

.....

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值