消息中间件进阶学习


思维导图

在这里插入图片描述

1、RabbitMQ

1.1、如何保证消息不丢失?

RabbitMQ-如何保证消息不丢失?

要回答这个问题,我们首先需要了解RabbitMQ的使用场景

  1. 异步发送(验证码、短信)
  2. MySql和Redis、ES之间的数据同步
  3. 分布式事务
  4. 流量削峰、异步解耦

那消息丢失的情况有哪些呢?有四种情况

在这里插入图片描述

  1. 消息未到达交换机
  2. 消息未到达队列
  3. 消息在队列中丢失
  4. 消费者未接收消息

生产者确认机制

RabbitMQ提供了publisher confirm机制来避免发送消息到MQ过程中的丢失。消息发送到MQ之后,会返回一个结果给发送者,表示消息是否发送成功

在这里插入图片描述

消息失败之后如何处理呢?

  • 回调方法即时重发
  • 记录日志
  • 保存到数据库然后定时重发,成功发送后即刻删除表中的数据

消息持久化

在这里插入图片描述

消费者确认机制

RabbitMQ支持消费者确认机制,即:消费者处理消息后可以向MQ发送ack回执,MQ收到ack回执后才会删除该消息。而SpringAMQP则允许配置三种确认模式:

  • manual:手动ack,需要在业务代码结束后,调用api发送ack。

  • auto:自动ack,由spring监测listener代码是否出现异常,没有异常则返回ack;抛出异常则返回nack

  • none:关闭ack,MQ假定消费者获取消息后会成功处理,因此消息投递后立即被删除

我们可以利用Spring的retry机制,在消费者出现异常时利用本地重试,设置重试次数,当次数达到了以后,如果消息依然失败,将消息投递到异常交换机,交由人工处理

在这里插入图片描述

小总结

RabbitMQ-如何保证消息不丢失

  • 开启生产者确认机制,确保生产者的消息能到达队列

  • 开启持久化功能,确保消息未消费前在队列中不会丢失

  • 开启消费者确认机制为auto,由spring确认, 消息处理成功后完成ack

  • 开启消费者失败重试机制,多次重试失败后将消息投递到异常交换机,交由人工处理

面试快速答法

在这里插入图片描述

1.2、消息的重复消费问题

RabbitMQ消息的重复消费问题如何解决的?

产生消息重复消费的原因有哪些?

  • 网络波动
  • 消费者挂了( 消费者设置了自动确认机制,当消费了这条消息还没来得及给MQ确认的时候,服务挂了,这个时候服务重启后就会再次消费一次消息,这就造成了消息的重复消费)

解决方案:

  1. 每条消息设置一个唯一的标识id:支付id,订单id,文章id、活动推文id(自己的项目)(消费消息的时候,先去数据库查一下,看是否有这条数据,如果不存在就说明消息未被消费)
  2. 幂等方案:可以通过加锁,分布式锁,数据库锁(乐观锁、悲观锁)

面试快速答法

在这里插入图片描述

1.3、死信交换机

RabbitMQ中死信交换机 ? (RabbitMQ延迟队列有了解过嘛?)

  • 延迟队列:进入队列的消息会被延迟消费
  • 场景:超时订单、限时优惠、定时发布(志愿活动定时发布)

延迟队列 = 死信交换机 + TTL(生存时间)

那什么是死信交换机呢?

死信交换机

当一个队列中的消息满足下列情况之一时,可以成为死信(dead letter):

  • 消费者使用basic.reject或 basic.nack声明消费失败,并且消息的requeue参数设置为false

  • 消息是一个过期消息超时无人消费

  • 要投递的队列消息堆积满了,最早的消息可能成为死信

如果该队列配置了dead-letter-exchange属性,指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机称为死信交换机(Dead Letter Exchange,简称DLX)。

在这里插入图片描述

在这里插入图片描述

TTL

TTL,也就是Time-To-Live。如果一个队列中的消息TTL结束仍未消费,则会变为死信,ttl超时分为两种情况:

  • 消息所在的队列设置了存活时间

  • 消息本身设置了存活时间

在这里插入图片描述

在这里插入图片描述

延迟队列插件

DelayExchange插件,需要安装在RabbitMQ中,DelayExchange的本质还是官方的三种交换机,只是添加了延迟功能。因此使用时只需要声明一个交换机,交换机的类型可以是任意类型,然后设定delayed属性为true即可。

在这里插入图片描述

小总结

RabbitMQ中死信交换机 ? (RabbitMQ延迟队列有了解过嘛)

  1. 我们当时的爱心雨伞项目有一个定时发布志愿活动,需要用到延迟队列其中就是用RabbitMQ实现的。
  2. 其中的延迟队列就用到了死信交换机和TTL (消息存活时间)实现的
  3. 如果消息超时未消费就会变成死信。(死信的其他情况:拒绝被消费、队列满了)

延迟队列插件实现延迟队列DelayExchange

  • 声明一个交换机,添加delayed属性为true
  • 发送消息时,添加x-delay头,值为超时时间

面试快速答法

在这里插入图片描述

1.4、消息堆积怎么解决

RabbitMQ如果有100万消息堆积在MQ , 如何解决(消息堆积怎么解决)

当生产者生产消息的速度超过了消费者消费消息的速度,就会导致队列中的消息堆积,直到队列存储消息达到上限。
之后发送的消息就会成为死信(产生死信的条件之一:队列消息堆积满),可能会被丢弃,这就是消息堆积问题

在这里插入图片描述

解决消息堆积有三种思路:

  1. 增加更多的消费者,提高消费速度
  2. 在消费者中开启线程池来加快处理消息的速度
  3. 扩大队列容积,让队列可以存放更多的消息,使用惰性队列

惰性队列

惰性队列的特性如下:

  1. 接收到消息后直接存入磁盘而非内存
  2. 消费者要消费消息时才从磁盘中读取并加载到内存中
  3. 支持数百万条的消息存储

在这里插入图片描述

小总结

如果有100万消息堆积在MQ , 如何解决(消息堆积怎么解决)?

这里提供三种解决思路:

  1. 增加更多的消费者,提高消费速度
  2. 在消费者中开启线程池嘛,加快消息的处理速度
  3. 扩大队列容积,提高堆积上限,采用惰性队列
    • 在声明队列的时候可以设置属性x-queue-model为lazy,即为惰性队列
    • 基于磁盘存储,消息存储的上限高
    • 性能比较稳定,但基于磁盘存储,受限于磁盘IO,时效性会降低

面试快速答法

在这里插入图片描述

1.5、集群

RabbitMQ的高可用机制有了解过嘛?

  • 在生产环境下,使用集群来保证高可用性
  • 集群有普通集群、镜像集群仲裁队列

普通集群

普通集群,具备以下特征:

  1. 会在集群的各个节点间共享部分数据,包括:交换机、队列元信息。但不包括队列中的消息
  2. 当访问集群某节点时,如果队列不在该节点,会从数据所在节点传递到当前节点并返回
  3. 队列所在节点宕机,队列中的消息就会丢失

镜像集群

镜像集群:本质是主从模式,具备下面的特征

  • 交换机、队列、队列中的消息会在各个mq的镜像节点之间同步备份
  • 创建队列的节点被称为该队列的主节点,备份到的其他节点叫做该队列的镜像节点
  • 一个队列的主节点可能是另一个队列的镜像节点
  • 所有的操作都是主节点完成,然后同步给镜像节点
  • 主节点宕机后,镜像节点会代替成为新的主节点

仲裁队列

仲裁队列:仲裁队列是3.8版本以后才有的新功能,用来替代镜像队列,具备以下特征:

  1. 与镜像队列一样,都是主从模式,支持主从数据同步
  2. 使用非常简单,没有复杂的配置
  3. 主从同步基于Raft协议,强一致

在这里插入图片描述

小总结

RabbitMQ的高可用机制有了解过嘛

  • 在生产环境下,我们当时采用镜像模式搭建的集群,共有三个节点
  • 镜像队列结构是一主多从(从就是镜像),所有的操作都是主节点完成,然后同步给镜像节点
  • 主宕机后,镜像节点会替代成为新的主(如果在主从同步完成前,主就已经宕机,可能出现数据丢失)

那出现数据丢失怎么办?

  1. 我们可以采用仲裁队列,同镜像队列一样,都是主从模式,支持主从数据同步,主从同步基于Raft协议,强一致
  2. 使用起来非常简单,不需要额外的配置,在声明队列的时候只要指定这个队列是仲裁队列即可

面试快速答法

在这里插入图片描述

2、Kafka

2.1、Kafka是如何保证消息不丢失

Kafka是如何保证消息不丢失?

使用Kafka在消息的收发过程中都会出现消息的丢失,Kafka分别给出了解决方案

  1. 生产者发送消息到Broker丢失
  2. 消息在Broker中存储丢失
  3. 消费者从Broker接收消息丢失

在这里插入图片描述

生产者发送消息到Broker丢失

解决方案:

  • 设置异步发送

在这里插入图片描述

  • 消息重试

在这里插入图片描述

消息在Broker中存储丢失

在这里插入图片描述

解决方案:

  • 发送确认机制acks

    确认机制说明
    acks=0生产者在成功写入消息之前不会等待任何来自服务器的响应,消息有丢失的风险,但是速度最快
    acks=1(默认值)只要集群首领节点收到消息,生产者就会收到一个来自服务器的成功响应
    acks=all只有当所有参与赋值的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应

消费者从Broker接收消息丢失

在这里插入图片描述

  • Kafka中的分区机制指的是将每个主题划分成多个分区(Partition)
  • topic分区中消息只能由消费者组中的唯一一个消费者处理,不同的分区分配给不同的消费者(同一个消费者组)

在这里插入图片描述

在这里插入图片描述

小总结

Kafka是如何保证消息不丢失

需要从三个层面去解决这个问题:

  • 生产者发送消息到Broker丢失

    • 设置异步发送,发送失败使用回调进行记录或重发
    • 失败重试,参数配置,可以设置重试次数
  • 消息在Broker中存储丢失

    发送确认acks,选择all,让所有的副本都参与保存数据后确认

  • 消费者从Broker接收消息丢失

    • 关闭自动提交偏移量,开启手动提交偏移量
    • 提交方式,最好是同步 + 异步提交

Kafka中消息的重复消费问题如何解决的?

  1. 关闭自动提交偏移量,开启手动提交偏移量
  2. 提交方式,最好是同步 + 异步提交
  3. 幂等方案

面试快速答法

在这里插入图片描述

2.2、Kafka是如何保证消费的顺序性

Kafka是如何保证消费的顺序性

应用场景:

  • 即时消息中的单对单聊天和群聊,保证发送方消息发送顺序与接收方的顺序一致

  • 充值转账两个渠道在同一个时间进行余额变更,短信通知必须要有顺序

topic分区中消息只能由消费者组中的唯一一个消费者处理,所以消息肯定是按照先后顺序进行处理的。但是它也仅仅是保证Topic的一个分区顺序处理,不能保证跨分区的消息先后处理顺序。 所以,如果你想要顺序的处理Topic的所有消息,那就只提供一个分区。

在这里插入图片描述

小总结

Kafka是如何保证消费的顺序性

问题原因:

一个topic的数据可能存储在不同的分区中,每个分区都有一个按照顺序的存储的偏移量,如果消费者关联了多个分区不能保证顺序性

解决方案:

  • 发送消息时指定分区号

  • 发送消息时按照相同的业务设置相同的key

面试快速答法

在这里插入图片描述

2.3、Kafka的高可用机制

Kafka的高可用机制有了解过嘛?

  1. 集群模式
  2. 分区备份机制

集群模式

在这里插入图片描述

  • Kafka的服务器端路由被称为Broker的服务进程构成,即一个Kafka集群由多个Broker组成
  • 这样如果集群中某一台机器宕机,其他机器上的Broker也依然能够对外提供服务。这其实就是Kafka提供高可用的手段之一

分区备份机制

在这里插入图片描述

  • 一个topic有多个分区,每个分区有很多副本,其中有一个leader,其余的都是follower,副本存储在不同的broker中
  • 所有的分区副本的内容是都是相同的,如果leader发生故障时,会自动将其中一个follower提升为leader

在这里插入图片描述

ISR(in-sync replica)需要同步复制保存的follower

如果leader失效后,需要选出新的leader,选举的原则如下:

第一:选举时优先从ISR中选定,因为这个列表中follower的数据是与leader同步的

第二:如果ISR列表中的follower都不行了,就只能从其他follower中选取

在这里插入图片描述

小总结

Kafka的高可用机制有了解过嘛

可以从两个层面回答,第一个是集群,第二个是复制机制

集群:

一个Kafka集群由多个broker实例组成,即使某一台宕机,也不耽误其他broker继续对外提供服务

复制机制:

  • 一个topic有多个分区,每个分区有多个副本,有一个leader,其余的都是follower,副本存储在不同的broker中
  • 所有分区副本的内容都是相同的,如果leader发生故障时,会自动将其中一个follower提升为leader,保障了系统的容错性、高可用性

解释一下复制机制中的ISR

ISR(in-sync replica)需要同步复制保存的follower

分区副本分为了两类,一个是ISR,与leader副本同步保存数据,另外一个普通的副本,是异步同步数据,当leader挂掉之后,会优先从ISR副本列表中选取一个作为leader

面试快速答法

在这里插入图片描述

2.4、数据清理机制

Kafka数据清理机制了解过嘛?

  • Kafka文件存储机制

  • 数据清理机制

要搞明白数据清理机制,首先应该搞明白Kafka的文件存储机制

在这里插入图片描述

为什么要分段?

  • 删除无用文件方便,提高磁盘利用率
  • 查找数据便捷

在这里插入图片描述

数据清理机制

在这里插入图片描述

小总结

Kafka数据清理机制了解过嘛?

Kafka存储结构

  • Kafka中topic的数据存储在分区上,分区如果文件过大会分段存储在segment
  • 每个分段在磁盘上都是以索引(xxx.index)和日志文件(xxx.log)的形式存储
  • 分段的好处是,第一能够减少单个文件内容的大小,查找数据方便。第二方便Kafka进行日志清理

日志清理的策略有两个

  1. 根据消息的保留时间,当消息保存的时间超过了指定的时间,就会触发清理,默认是168小时(7天)
  2. 根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阈值,则开始删除最久的消息。(默认是关闭的)

面试快速答法

在这里插入图片描述

2.5、Kafka的高性能的设计

Kafka中实现高性能的设计有了解过嘛?

  • 消息分区:不受单台服务器的限制,可以不受限的处理更多的数据

  • 顺序读写:磁盘顺序读写,提升读写效率

  • 页缓存:把磁盘中的数据缓存到内存中,把对磁盘的访问变为对内存的访问

  • 零拷贝:减少上下文切换及数据拷贝

  • 消息压缩:减少磁盘IO和网络IO

  • 分批发送:将消息打包批量发送,减少网络开销

零拷贝

首先我们先来回顾下Linux系统的IO模型,主要划分了两个空间:用户空间、内核空间。现在有一个Kafka服务,生产者要发送消息存储到磁盘文件中,

用户空间没有权限调用磁盘读写,所以先将数据拷贝到内核空间中(页缓存),页缓存批量将数据写入到磁盘文件。

现在有一个消费者要消费消息该怎么办呢?Kafka先到页缓存看有没有这个消息,如果没有,就去磁盘文件中读取消息,然后把消息拷贝到页缓存中,把消息再拷贝到用户空间的Kafka中。现在我们要把消息发送给消费者怎么做呢?

这个时候就需要socket连接和网卡啦,所以现在用户空间的消息拷贝到内核空间的Socket缓冲区,然后拷贝到网卡,由网卡将数据发送给消费者。

好了,流程结束了,回想一下:刚刚拷贝了几次呢?有四次

  1. 磁盘文件到页缓存
  2. 页缓存到Kafka
  3. Kafka到Socket缓冲区
  4. Socket到网卡

这个效率肯定是不高的。

在这里插入图片描述

那Kafka的零拷贝是怎么做的呢?

Kafka首先判断页缓存中是否有这个数据,要是没有就去磁盘文件读取数据,然后将数据拷贝到页缓存,现在关键来了,现在Kafka知道了那个消费者要去消费这个消息,所以把所有的操作都委托给系统去操作,系统将消息直接从页缓存拷贝给网卡,然后网卡就能找到消费者去消费

这个过程拷贝只有两次。
在这里插入图片描述

小总结

Kafka中实现高性能的设计有了解过嘛

  • 消息分区:不受单台服务器的限制,可以不受限的处理更多的数据

  • 顺序读写:磁盘顺序读写,提升读写效率

  • 页缓存:把磁盘中的数据缓存到内存中,把对磁盘的访问变为对内存的访问

  • 零拷贝:减少上下文切换及数据拷贝

  • 消息压缩:减少磁盘IO和网络IO

  • 分批发送:将消息打包批量发送,减少网络开销

面试快速答法

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

King Gigi.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值