下面将从四个方面来学习RabbitMQ进阶的知识,将会从问题的引出与解决递进学习
消息可靠性
死信交换机
惰性队列
MQ集群
在学习了MQ之后我们可能也会发现一些问题,就拿RabbitMQ中的发布订阅模型来分析:
我们会发现在消息传递的过程中是通过网络传输的, 那么只要是通过网络传输就会存在消息丢失的问题,那么如何解决消息的可靠性就是我们需要考虑的一个重要的问题.
其次对于一些消息我们就是想要延迟发送,这种场景我们在实际的开发中也是较长使用,比如:延迟发送短信、用户下单,如果用户在15 分钟内未支付,则自动取消、预约工作会议,20分钟后自动通知所有参会人员,等等可能你会说我用定时器也可以嘛,兄弟这不是新的技术的嘛。
第三对于大量的消息,在单节点的情况下,难以避免的就是当前服务宕机。那么就会极大的影响其他程序的运行,那么应该怎么提高MQ的高可用性,这也是一个问题。
最后如果有大量的消息过来,由于消费者的消费能力与之不匹配,如何解决数百万的消息堆积问题。这也是一个棘手的问题。
那我们下面就从每个问题出发,依次的解决.
消息可靠性
就像上面描述的消息从发送,到消费者接收消费,会经历多个过程,其中的每一步都可能导致消息丢失,常见的丢失原因包括:
首先是每个环节的服务问题,比如服务宕机等,其次是上图中标出了三个红框,也就对应着在网络传输中可能会发生的消息异常,而对于3来说,只有当接收到consumer的ack
确认收到的消息之后才会删除,所以就不用考虑在3中的丢失的情况,那么就还有下面的三种情况。
- 发送时丢失:
- 生产者发送的消息未送达exchange
- 消息到达exchange后未到达queue
- MQ宕机,queue将消息丢失
- consumer接收到消息后未消费就宕机
针对这些问题,RabbitMQ分别给出了解决方案:
- 生产者确认机制
- mq持久化
- 消费者确认机制
- 失败重试机制
下面就通过代码层面来解决这些问题.
1.生产者消息确认
RabbitMQ提供了publisher confirm
机制来避免消息发送到MQ过程中丢失。这种机制必须给每个消息指定一个唯一ID(这里我们使用UUID)。消息发送到MQ以后,会返回一个结果给发送者,表示消息是否处理成功。
- publisher-confirm,发送者确认
- 消息成功投递到交换机,返回ack
- 消息未投递到交换机,返回nack
- publisher-return,发送者回执
- 消息投递到交换机了,但是没有路由到队列。返回ACK,及路由失败原因。
这里也就对应着上图中的1.2位置的消息丢失之后可做的操作
注意:确认机制发送消息时,需要给每个消息设置一个全局唯一ID,以区分不同的消息,避免ack冲突
项目结构如下:
1 修改配置
首先,修改publisher服务中的application.yml文件,添加下面的内容:
spring:
rabbitmq:
publisher-confirm-type: correlated
publisher-returns: true
template:
mandatory: true
说明:
publish-confirm-type
:开启publisher-confirm,这里支持两种类型:simple
:同步等待confirm结果,直到超时该类型基本不会使用,因为我们使用MQ的目的就是异步
correlated
:异步回调,定义ConfirmCallback,MQ返回结果时会回调这个ConfirmCallback
publish-returns
:开启publish-return功能,同样是基于callback机制,不过是定义ReturnCallback
template.mandatory
:定义消息路由失败时的策略。true,则调用ReturnCallback
;false:则直接丢弃消息
定义Return回调
每个RabbitTemplate只能配置一个ReturnCallback,因此需要在项目加载时配置:
修改publisher服务,添加一个:
@Slf4j
@Configuration
public class CommonConfig2 implements ApplicationContextAware {
@Override
public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
// 获取RabbitTemplate
RabbitTemplate rabbitTemplate = applicationContext.getBean(RabbitTemplate.class);
// 设置ReturnCallback
rabbitTemplate.setReturnCallback((message, replyCode, replyText, exchange, routingKey) -> {
// 投递失败,记录日志
log.info("消息发送失败,应答码{},原因{},交换机{},路由键{},消息{}",
replyCode, replyText, exchange, routingKey, message);
// 如果有业务需要,可以重发消息
});
}
}
定义ConfirmCallback
ConfirmCallback可以在发送消息时指定,因为每个业务处理confirm成功或失败的逻辑不一定相同。
在测试类中
@Test
public void testSendMessage2SimpleQueue() throws InterruptedException {
// 1.消息体
String message = "hello, spring amqp!";
// 2.全局唯一的消息ID,需要封装到CorrelationData中
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
// 3.添加callback
correlationData.getFuture().addCallback(
result -> {
if(result.isAck()){
// 3.1.ack,消息成功
log.debug("消息发送成功, ID:{}", correlationData.getId());
}else{
// 3.2.nack,消息失败
log.error("消息发送失败, ID:{}, 原因{}",correlationData.getId(), result.getReason());
}
},
// 当消息异常时调用
ex -> log.error("消息发送异常, ID:{}, 原因{}",correlationData.getId(),ex.getMessage())
);
// 4.发送消息
rabbitTemplate.convertAndSend("task.direct", "task", message, correlationData);
// 休眠一会儿,等待ack回执
Thread.sleep(2000);
}
2.消息持久化
对于宕机丢失的操作我们可以像Redis一样,对数据进行持久化操作,这样就能在启动的时候进行数据恢复的操作,防止了数据的丢失.
要想确保消息在RabbitMQ中安全保存,必须开启消息持久化机制。分别从三个方面进行数据的持久化操作
- 交换机持久化
- 队列持久化
- 消息持久化
1. 交换机持久化
RabbitMQ中交换机默认是非持久化的,mq重启后就丢失。
SpringAMQP中可以通过代码指定交换机持久化:通过@Bean注解
@Bean
public DirectExchange simpleExchange(){
// 三个参数:交换机名称、是否持久化、当没有queue与其绑定时是否自动删除
return new DirectExchange("simple.direct", true, false);
}
创建交换机的构造器如下:
事实上,默认情况下,由SpringAMQP声明的交换机都是持久化的。可以在RabbitMQ控制台看到持久化的交换机都会带上D
的标示:表示durable=true
2. 队列持久化
RabbitMQ中队列默认是非持久化的,mq重启后就丢失。
SpringAMQP中可以通过代码指定交换机持久化:
@Bean
public Queue simpleQueue(){
// 使用QueueBuilder构建队列,durable就是持久化的
return QueueBuilder.durable("simple.queue").build();
}
事实上,默认情况下,由SpringAMQP声明的队列都是持久化的。
可以在RabbitMQ控制台看到持久化的队列都会带上D
的标示:
3. 消息持久化
利用SpringAMQP发送消息时,可以设置消息的属性(MessageProperties),指定delivery-mode:
- 1:非持久化
- 2:持久化
默认情况下,SpringAMQP发出的任何消息都是持久化的,不用特意指定。
3.消费者消息确认
RabbitMQ是阅后即焚机制,RabbitMQ确认消息被消费者消费后会立刻删除。
而RabbitMQ是通过消费者回执来确认消费者是否成功处理消息的:消费者获取消息后,应该向RabbitMQ发送ACK回执,表明自己已经处理消息。
设想这样的场景:
- 1)RabbitMQ投递消息给消费者
- 2)消费者获取消息后,返回ACK给RabbitMQ
- 3)RabbitMQ删除消息
- 4)消费者宕机,消息尚未处理
这样,消息就丢失了。因此消费者返回ACK的时机非常重要。
而SpringAMQP则允许配置三种确认模式:
•manual:手动ack,需要在业务代码结束后,调用api发送ack。
•auto:自动ack,由spring监测listener代码是否出现异常,没有异常则返回ack;抛出异常则返回nack
•none:关闭ack,MQ假定消费者获取消息后会成功处理,因此消息投递后立即被删除
由此可知:
- none模式下,消息投递是不可靠的,可能丢失
- auto模式类似事务机制,出现异常时返回nack,消息回滚到mq;没有异常,返回ack
- manual:自己根据业务情况,判断什么时候该ack
一般,我们都是使用默认的auto即可。
配置模式:
先配置为none模式
spring:
rabbitmq:
listener:
simple:
acknowledge-mode: none # 关闭ack
修改consumer服务的SpringRabbitListener类中的方法,模拟一个消息处理异常:
@RabbitListener(queues = "simple.queue")
public void listenSimpleQueue(String msg) {
log.info("消费者接收到simple.queue的消息:【{}】", msg);
// 模拟异常
System.out.println(1 / 0);
log.debug("消息处理完成!");
}
测试可以发现,当消息处理抛异常时,消息依然被RabbitMQ删除了。对于一些安全性要求高的业务显然是不合适的.
配置为auto
模式
再次把确认机制修改为auto:
spring:
rabbitmq:
listener:
simple:
acknowledge-mode: auto # 关闭ack
在异常位置打断点,再次发送消息,程序卡在断点时,可以发现此时消息状态为unack(未确定状态):
抛出异常后,因为Spring会自动返回nack,所以消息恢复至Ready状态,并且没有被RabbitMQ删除:
此时如果不做处理,就会进入到一个消费者和queue二者的死循环中,那么应该怎么解决这样的问题呢?RabbitMQ中提供了一个叫做失败重试机制
4.消费失败重试机制
在使用auto
模式的时候我们可以通过下面的图看到, 当消费者出现异常后,消息会不断requeue(重入队)到队列,再重新发送给消费者,然后再次异常,再次requeue,无限循环,导致mq的消息处理飙升,带来不必要的压力:
怎么办呢?
1. 本地重试
我们可以利用Spring的retry机制,在消费者出现异常时利用本地重试,而不是无限制的requeue到mq队列。
修改consumer服务的application.yml文件,添加内容:
spring:
rabbitmq:
listener:
simple:
retry:
enabled: true # 开启消费者失败重试
initial-interval: 1000 # 初识的失败等待时长为1秒
multiplier: 1 # 失败的等待时长倍数,下次等待时长 = multiplier * last-interval
max-attempts: 3 # 最大重试次数
stateless: true # true无状态;false有状态。如果业务中包含事务,这里改为false
最后一个配置需要注意
stateless: true
true无状态;false有状态。如果业务中包含事务,这里改为false
重启consumer服务,重复之前的测试。可以发现:
- 在重试3次后,SpringAMQP会抛出异常AmqpRejectAndDontRequeueException,说明本地重试触发了
- 查看RabbitMQ控制台,发现消息被删除了,说明最后SpringAMQP返回的是ack,mq删除消息了
结论:
- 开启本地重试时,消息处理过程中抛出异常,不会requeue到队列,而是在消费者本地重试
- 重试达到最大次数后,Spring会返回ack,消息会被丢弃
2. 失败策略
在之前的测试中,达到最大重试次数后,消息会被丢弃,这是由Spring内部机制决定的。
在开启重试模式后,重试次数耗尽,如果消息依然失败,则需要有MessageRecovery接口来处理,它包含三种不同的实现:
-
RejectAndDontRequeueRecoverer
:重试耗尽后,直接reject,丢弃消息。默认就是这种方式 -
ImmediateRequeueMessageRecoverer
:重试耗尽后,返回nack,消息重新入队(这其实还是auto) -
RepublishMessageRecoverer
:重试耗尽后,将失败消息投递到指定的交换机**(常用)**
比较优雅的一种处理方案是RepublishMessageRecoverer,失败后将消息投递到一个指定的,专门存放异常消息的队列,后续由人工集中处理。
1)在consumer服务中定义处理失败消息的交换机和队列
方式一: 通过@Bean的方式声明
@Bean
public DirectExchange errorMessageExchange(){
return new DirectExchange("error.direct");
}
@Bean
public Queue errorQueue(){
return new Queue("error.queue", true);
}
@Bean
public Binding errorBinding(Queue errorQueue, DirectExchange errorMessageExchange){
return BindingBuilder.bind(errorQueue).to(errorMessageExchange).with("error");
}
方式二: 通过注解的方式创建
@RabbitListener(bindings = @QueueBinding(
value = @Queue("error.queue"),
exchange = @Exchange("error.direct"),
key = "error"
))
public void handlerError(String message) {
log.info("异常消息{}", message);
}
- ) 定义失败策略 RepublishMessageRecoverer
@Bean
public MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate){
return new RepublishMessageRecoverer(rabbitTemplate, "error.direct", "error");
}
5. 总结
如何确保RabbitMQ消息的可靠性?
- 开启生产者确认机制,确保生产者的消息能到达队列
- 开启持久化功能,确保消息未消费前在队列中不会丢失
- 开启消费者确认机制为auto,由spring确认消息处理成功后完成ack
- 开启消费者失败重试机制,并设置MessageRecoverer,多次重试失败后将消息投递到异常交换机,交由人工处理
死信交换机
死信交换机
什么是死信?
当一个队列中的消息满足下列情况之一时,可以成为死信(dead letter):
- 消费者使用basic.
reject
或 basic.nack
声明消费失败,并且消息的requeue参数设置为false - 消息是一个过期消息,超时无人消费
- 要投递的队列消息满了,无法投递
如果这个包含死信的队列配置了dead-letter-exchange
属性,指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机称为死信交换机(Dead Letter Exchange,检查DLX)
如图,一个消息被消费者拒绝了,变成了死信:
因为simple.queue绑定了死信交换机 dl.direct,因此死信会投递给这个交换机:
如果这个死信交换机也绑定了一个队列,则消息最终会进入这个存放死信的队列:
另外,队列将死信投递给死信交换机时,必须知道两个信息:
- 死信交换机名称
- 死信交换机与死信队列绑定的RoutingKey
这样才能确保投递的消息能到达死信交换机,并且正确的路由到死信队列。
总结:
什么样的消息会成为死信?
- 消息被消费者reject或者返回nack
- 消息超时未消费
- 队列满了
死信交换机的使用场景是什么?
- 如果队列绑定了死信交换机,死信会投递到死信交换机;
- 可以利用死信交换机收集所有消费者处理失败的消息(死信),交由人工处理,进一步提高消息队列的可靠性。
TTL
一个队列中的消息如果超时未消费,则会变为死信,超时分为两种情况:
- 消息所在的队列设置了超时时间
- 消息本身设置了超时时间
注意:如果二者都设置了超时时间,将会按照最小的时间到期 (下面会验证)
通过代码实现接收超时死信的死信交换机:
在consumer服务的SpringRabbitListener中,定义一个新的消费者,并且声明 死信交换机
、死信队列
:这里通过注解的方式声明
@RabbitListener(bindings = @QueueBinding(
value = @Queue(value = "dl.queue"),
exchange = @Exchange("dl.direct"),
key = "dl"
))
public void listenDlQueue(String message){
log.info("死信队列-错误信息{}",message);
}
声明一个队列,并且指定TTL
@Bean
public Queue ttlQueue(){
return QueueBuilder
// 指定队列的名称并持久化
.durable("ttl.queue")
.ttl(5000)
// 指定当前队列对应的死信队列
.deadLetterExchange("dl.direct")
.build();
}
注意,这个队列设定了死信交换机为dl.direct
声明交换机,将ttl与交换机绑定:
@Bean
public DirectExchange ttlExchange(){
return new DirectExchange("ttl.direct");
}
@Bean
public Binding ttlBinding(){
return BindingBuilder.bind(ttlQueue()).to(ttlExchange()).with("ttl");
}
此时上图中的关系我们也就实现了,下面我们往交换机中发送消息进行测试,这里不指定TTL
@Test
public void testTTLQueue() {
// 创建消息
Message message = MessageBuilder
.withBody("记得小的时候,我爸骑自行车带我,我脚卡在车轱辘里了,我爸感觉蹬不动,于是他站了起来。".getBytes(StandardCharsets.UTF_8))
.build();
// 消息ID,需要封装到CorrelationData中
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
// 发送消息
rabbitTemplate.convertAndSend("ttl.direct", "ttl", message, correlationData);
// 记录日志
log.debug("发送消息成功");
}
发送消息的日志:
接收消息的日志
因为我们在队列中设置的TTL值是5000ms,也就是5秒。可以看到消息发送与接收之间的时差刚好是5秒。17-22
下面我们在发送消息的时候也指定TTL
这次将TTL设置到消息里面,我们在看看时间之差
@Test
public void testTTLMsg() {
// 创建消息
Message message = MessageBuilder
.withBody("记得小的时候,我爸骑自行车带我,我脚卡在车轱辘里了,我爸感觉蹬不动,结果他站了起来。".getBytes(StandardCharsets.UTF_8))
.setExpiration("2000")
.build();
// 消息ID,需要封装到CorrelationData中
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
// 发送消息
rabbitTemplate.convertAndSend("ttl.direct", "ttl", message, correlationData);
// 记录日志
log.debug("发送消息成功");
}
发送消息日志
接收消息日志
这里差了2秒,也就正是我们设置的TTL, 说明当队列、消息都设置了TTL时,任意一个到期就会成为死信。bingo验证成功.
总结:
消息超时的两种方式是?
- 给队列设置ttl属性,进入队列后超过ttl时间的消息变为死信
- 给消息设置ttl属性,队列接收到消息超过ttl时间后变为死信
如何实现发送一个消息20秒后消费者才收到消息?
- 给消息的目标队列指定死信交换机
- 将消费者监听的队列绑定到死信交换机
- 发送消息时给消息设置超时时间为20秒
延迟队列
利用TTL结合死信交换机,我们实现了消息发出后,消费者延迟收到消息的效果。这种消息模式就称为延迟队列(Delay Queue)模式。
延迟队列的使用场景包括:
- 延迟发送短信
- 用户下单,如果用户在15 分钟内未支付,则自动取消
- 预约工作会议,20分钟后自动通知所有参会人员
因为延迟队列的需求非常多,所以RabbitMQ的官方也推出了一个插件,原生支持延迟队列效果。
插件的安装可以参考下面的文章 安装DelayExchange插件_delayexchange安装
DelayExchange原理
DelayExchange需要将一个交换机声明为delayed类型。当我们发送消息到delayExchange时,流程如下:
- 接收消息
- 判断消息是否具备
x-delay
属性 - 如果有
x-delay
属性,说明是延迟消息,持久化到硬盘,读取x-delay
值,作为延迟时间 - 返回routing not found结果给消息发送者
- x-delay时间到期后,重新投递消息到指定队列
使用DelayExchange
插件的使用也非常简单:声明一个交换机,交换机的类型可以是任意类型,只需要设定delayed属性为true即可,然后声明队列与其绑定即可。
(1) 声明交换机
1)基于注解的方式:
这里主要是在把交换机的
delayed=true
@RabbitListener(bindings = @QueueBinding(
value = @Queue("delay.queue"),
exchange = @Exchange(value = "delay.direct",delayed = "true"),
key = "delay"
))
public void listenDelayQueue(String message){
log.info("消费者接受到延迟队列中的消息是{}",message);
}
2) @Bean的方式:
(2) 发送消息
发送消息时,一定要携带x-delay
属性,指定延迟的时间:
@Test
public void testRelayQueue() {
Message message = MessageBuilder
.withBody("记得小的时候,我爸骑自行车带我,我脚卡在车轱辘里了,我爸感觉蹬不动,于是他站了起来。".getBytes(StandardCharsets.UTF_8))
.setHeader("x-delay", 10000)
.build();
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
rabbitTemplate.convertAndSend("delay.direct", "delay", message, correlationData);
log.debug("发送消息成功");
}
查看发送日志: 14:34:11
查看接收日志: 14:34:21
实现延迟的效果
总结
延迟队列插件的使用步骤包括哪些?
•声明一个交换机,添加delayed属性为true
•发送消息时,添加x-delay头,值为超时时间
惰性队列
消息堆积问题
当生产者发送消息的速度超过了消费者处理消息的速度,就会导致队列中的消息堆积,直到队列存储消息达到上限。之后发送的消息就会成为死信,可能会被丢弃,这就是消息堆积问题。
此时你可能会想,我多加几台消费服务或者增大队列的长度再或者增大内存不就可以了嘛? 没错是可以但是并没有从本质上解决此问题.
解决消息堆积有两种思路:
- 增加更多消费者,提高消费速度。也就是我们之前说的work queue模式
- 扩大队列容积,提高堆积上限
要提升队列容积,把消息保存在内存中显然是不行的。
惰性队列
从RabbitMQ的3.6.0版本开始,就增加了Lazy Queues的概念,也就是惰性队列。惰性队列的特征如下:
- 接收到消息后直接存入磁盘而非内存
- 消费者要消费消息时才会从磁盘中读取并加载到内存
- 支持数百万条的消息存储
声明方式
(1)基于命令行设置lazy-queue
自行查阅资料这里不再赘述
(2)基于@Bean声明lazy-queue
@Bean
public Queue lazyQueue() {
return QueueBuilder
.durable("lazy.queue")
.lazy()
.build();
}
(3)基于@RabbitListener声明LazyQueue
这里需要注解里面的参数,指定的是
queuesToDeclare
@RabbitListener(queuesToDeclare = @Queue(
value = "lazy.queue",
durable = "true",
arguments = @Argument(name = "x-queue-mode",value = "lazy")
))
public void lazyListen(String message){
log.info("惰性加载收到的消息是{}",message);
}
总结:
消息堆积问题的解决方案?
- 队列上绑定多个消费者,提高消费速度
- 使用惰性队列,可以在mq中保存更多消息
惰性队列的优点有哪些?
- 基于磁盘存储,消息上限高
- 没有间歇性的page-out,性能比较稳定
惰性队列的缺点有哪些?
- 基于磁盘存储,消息时效性会降低
- 性能受限于磁盘的IO
page-out是操作系统内存管理中的一个概念。它表示将内存中的数据页换出到磁盘上。操作系统为了使应用程序可以使用更多的内存,会将部分未被使用的数据页从内存中换出到磁盘上。当应用程序需要使用这些数据时,操作系统会将磁盘上的数据页换入内存,以供应用程序访问。
这里为了演示消息堆积是不同队列中处理的能力.我们通过两个方法测试,
测试方法
testLazyQueue
发送到惰性队列中测试方法
testQueue
发送到普通队列中
测试代码
我们这里都循环100000次看看性能.
// 惰性队列
@Test
public void testLazyQueue(){
for (int i = 0; i < 100000; i++) {
Message build = MessageBuilder.withBody("Hello Lazy Queue"
.getBytes(StandardCharsets.UTF_8))
.build();
rabbitTemplate.convertAndSend("lazy.queue", build);
}
}
// 普通队列,因为RabbitMQ中我们之前创建了 dl.queue 这个队列所以这里就使用这个队列
@Test
public void testDLQueue(){
for (int i = 0; i < 100000; i++) {
Message build = MessageBuilder.withBody("Hello dl Queue"
.getBytes(StandardCharsets.UTF_8))
.build();
rabbitTemplate.convertAndSend("dl.queue", build);
}
}
先后打开两个测试方法. 我们可以看到因为惰性队列没有间歇性的page-out,性能比较稳定
并且因为惰性队列式直接存储到磁盘中毋庸置疑消息存储上限也会很高.
此时我们再打开消费服务,我们会发现惰性队列的消费性能也比普通的队列快了很多
MQ集群
大致有个印象
RabbitMQ的是基于Erlang语言编写,而Erlang又是一个面向并发的语言,天然支持集群模式。RabbitMQ的集群有两种模式:
•普通集群:是一种分布式集群,将队列分散到集群的各个节点,从而提高整个集群的并发能力。
•镜像集群:是一种主从集群,普通集群的基础上,添加了主从备份功能,提高集群的数据可用性。
镜像集群虽然支持主从,但主从同步并不是强一致的,某些情况下可能有数据丢失的风险。因此在RabbitMQ的3.8版本以后,推出了新的功能:仲裁队列来代替镜像集群,底层采用Raft协议确保主从的数据一致性。
普通集群
普通集群,或者叫标准集群(classic cluster),具备下列特征:
- 会在集群的各个节点间共享部分数据,包括:交换机、队列元信息。不包含队列中的消息。
- 当访问集群某节点时,如果队列不在该节点,会从数据所在节点传递到当前节点并返回
- 队列所在节点宕机,队列中的消息就会丢失
结构如图:
镜像集群
镜像集群:本质是主从模式,具备下面的特征:
- 交换机、队列、队列中的消息会在各个mq的镜像节点之间同步备份。
- 创建队列的节点被称为该队列的主节点,备份到的其它节点叫做该队列的镜像节点。
- 一个队列的主节点可能是另一个队列的镜像节点
- 所有操作都是主节点完成,然后同步给镜像节点
- 主宕机后,镜像节点会替代成新的主
结构如图:
仲裁队列
仲裁队列:仲裁队列是3.8版本以后才有的新功能,用来替代镜像队列,具备下列特征:
- 与镜像队列一样,都是主从模式,支持主从数据同步
- 使用非常简单,没有复杂的配置
- 主从同步基于Raft协议,强一致
Java代码创建仲裁队列
@Bean
public Queue quorumQueue() {
return QueueBuilder
.durable("quorum.queue") // 持久化
.quorum() // 仲裁队列
.build();
}
SpringAMQP连接MQ集群
这里用address来代替host、port方式
spring:
rabbitmq:
addresses: 192.168.150.105:8071, 192.168.150.105:8072, 192.168.150.105:8073
username: itcast
password: 123321
virtual-host: /