【微服务全家桶】-高级篇-5-MQ高级
1 消息可靠性
1.0 MQ常见问题
1.1 生产者消息确认机制
1.1.1 机制实现概述
1)引入mq-advanced-demo项目
1.1.2 实现
现在rabbitMQ中添加simple.queue
2.2.1 在publish中修改application.yaml
spring:
rabbitmq:
host: 192.168.204.129 # rabbitMQ的ip地址
port: 5672 # 端口
username: itcast
password: 123321
virtual-host: /
publisher-confirm-type: correlated
publisher-returns: true
template:
mandatory: true
1.1.3 实现publisher-returns
在CommonConfig中先实现publisher-returns
@Slf4j
@Configuration
public class CommonConfig implements ApplicationContextAware {
@Override
public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
//1.获取RabbitTemplate对象
RabbitTemplate rabbitTemplate = applicationContext.getBean(RabbitTemplate.class);
//2.配置ReturnCallback
rabbitTemplate.setReturnCallback((message, replyCode, replyText, exchange, routingKey) -> {
log.error("消息发送到队列失败:应答码:{},原因:{},交换机:{},路由键:{},消息内容:{}", replyCode, replyText, exchange, routingKey,message.toString());
//3.如果有需要,重发消息
});
}
}
在rabbitMQ绑定队列simple.queue到交换机amq.topic
1.1.4 实现publisher-confirm
测试方法
@Slf4j
@RunWith(SpringRunner.class)
@SpringBootTest
public class SpringAmqpTest {
@Autowired
private RabbitTemplate rabbitTemplate;
@Test
public void testSendMessage2SimpleQueue() throws InterruptedException {
String routingKey = "simple.test";
String message = "hello, spring amqp!";
rabbitTemplate.convertAndSend("amq.topic", routingKey, message);
}
}
因为publisher-confirm-type: correlated
选的是correlated模式,所以要在原先的基础上为convertAndSend添加一个形参correlationData
,并且为其准备数据,并且对其返回的结果进行判断
@Slf4j
@RunWith(SpringRunner.class)
@SpringBootTest
public class SpringAmqpTest {
@Autowired
private RabbitTemplate rabbitTemplate;
@Test
public void testSendMessage2SimpleQueue() throws InterruptedException {
//1.准备消息
String routingKey = "asimple.test";
String message = "hello, spring amqp!";
//2.准备CorrelationData对象
//2.1 设置UUDI作为CorrelationData的id
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
//2.2 为CorrelationData设置callback
correlationData.getFuture().addCallback(result -> {
//判断结果
if (result.isAck()) {
log.debug("消息成功发送到交换机,消息ID:{}",correlationData.getId());
} else {
log.error("消息投递到交换机失败,消息ID:{}", correlationData.getId());
//如果有需要,重发消息
}
}, ex -> {
//记录日志
log.error("消息发送失败:{}", ex);
//如果有需要,重发消息
});
rabbitTemplate.convertAndSend("amq.topic", routingKey, message,correlationData);
}
}
启动测试
23:05:44:418 DEBUG 8416 --- [68.204.129:5672] cn.itcast.mq.spring.SpringAmqpTest : 消息成功发送到交换机,消息ID:3eb556ee-e953-483c-8f36-ac3bae42b6d5
如果交换机名字出错
rabbitTemplate.convertAndSend("aamq.topic", routingKey, message,correlationData);
显示
23:07:20:366 ERROR 2796 --- [68.204.129:5672] o.s.a.r.c.CachingConnectionFactory : Channel shutdown: channel error; protocol method: #method<channel.close>(reply-code=404, reply-text=NOT_FOUND - no exchange 'aamq.topic' in vhost '/', class-id=60, method-id=40)
23:07:20:367 ERROR 2796 --- [nectionFactory1] cn.itcast.mq.spring.SpringAmqpTest : 消息发送失败,消息ID:d410cbbd-9e76-4603-a75a-fdca6a18cd8f
如果routingkey错了
String routingKey = "asimple.test";
显示成功发送到交换机publisher-returns,,但没法送到队列上返回publisher-confirm,调用ReturnCallback
23:11:05:340 DEBUG 21056 --- [68.204.129:5672] cn.itcast.mq.spring.SpringAmqpTest : 消息成功发送到交换机,消息ID:4d7f03ce-a15c-4779-a171-72b33a6b3a57
23:11:05:339 ERROR 21056 --- [nectionFactory1] cn.itcast.mq.config.CommonConfig : 消息发送到队列失败:应答码:312,原因:NO_ROUTE,交换机:amq.topic,路由键:asimple.test,消息内容:(Body:'hello, spring amqp!' MessageProperties [headers={spring_returned_message_correlation=4d7f03ce-a15c-4779-a171-72b33a6b3a57}, contentType=text/plain, contentEncoding=UTF-8, contentLength=0, receivedDeliveryMode=PERSISTENT, priority=0, deliveryTag=0])
1.1.5 总结
1.2 消息持久化
1.2.1 队列持久化
默认创建的队列是Durable,刚刚创建的simple.queue是Transient,所以当rabbitMQ重启后会丢失
重启后
在consumer的config包中CommonConfig来定义持久化的操作
@Configuration
public class CommonConfig {
//交换机
@Bean
public DirectExchange simpleDirect() {
return new DirectExchange("simple.topic",true,false);
}
//队列
@Bean
public Queue simpleQueue() {
return QueueBuilder.durable("simple.queue").build();
}
}
只要已启动就会声明
现在停掉消费者,想看看有没有持久化
现在往队列中发送一条信息,然后重启MQ,发现队列持久化了,但消息并没有持久化
1.2.2 消息持久化
1.3 消费者确认机制
1.3.1 none/auto的测试
1.3.1.1 修改consumer的application.yaml
spring:
rabbitmq:
host: 192.168.204.129 # rabbitMQ的ip地址
port: 5672 # 端口
username: itcast
password: 123321
virtual-host: /
listener:
simple:
prefetch: 1
acknowledge-mode: none
先测试none
修改消费者中的Listener
@Slf4j
@Component
public class SpringRabbitListener {
@RabbitListener(queues = "simple.queue")
public void listenSimpleQueue(String msg) {
System.out.println("消费者接收到simple.queue的消息:【" + msg + "】");
System.out.println(1 / 0);
log.info("消费者处理消息成功,msg:{}", msg);
}
}
这种情况下,1/0报错,消息没了,消费者也没处理,就丢失了。
改为auto模式
spring:
rabbitmq:
host: 192.168.204.129 # rabbitMQ的ip地址
port: 5672 # 端口
username: itcast
password: 123321
virtual-host: /
listener:
simple:
prefetch: 1
acknowledge-mode: auto
先准备一条消息,放入队列,此时状态为
如果调试运行的话,在1/0之前的状态为
unack相当于等待ack,如果放行等于抛异常,返回unack,mq重新投递,无休止投递
所以我们要修改auto状态下的消息处理机制
1.4 失败重试机制
1.4.1 为消费者配置retry参数
listener:
simple:
prefetch: 1
acknowledge-mode: auto
retry:
enabled: true
initial-interval: 1000
multiplier: 3
max-attempts: 4
stateless: true
采用打印方式log.debug来查看时间
@Slf4j
@Component
public class SpringRabbitListener {
@RabbitListener(queues = "simple.queue")
public void listenSimpleQueue(String msg) {
log.debug("消费者接收到simple.queue的消息:【" + msg + "】");
System.out.println(1 / 0);
log.info("消费者处理消息成功,msg:{}", msg);
}
}
第四次消息被拒绝,在队列中消失,把消息丢弃
1.5 消息重试策略
1.5.1 RepublishMessageRecoverer策略实现
在消费者的Config包中定义ErrorMessgaeConfig
@Configuration
public class ErrorMessgaeConfig{
@Bean
public DirectExchange errorMessageExchange(){
return new DirectExchange("error.direct",true,false);
}
@Bean
public Queue errorMessageQueue(){
return new Queue("error.queue",true);
}
@Bean
public Binding errorMessageBinding(){
return BindingBuilder.bind(errorMessageQueue()).to(errorMessageExchange()).with("error");
}
@Bean
public MessageRecoverer republishMessageRecoverer(RabbitTemplate rabbitTemplate){
return new RepublishMessageRecoverer(rabbitTemplate,"error.direct","error");
}
}
通过形参也能自动注入RabbitTemplate rabbitTemplate
显示被装入error.direct
查看error.queue的信息,也包括了错误栈的信息
2 死信交换机
2.1 初始死信交换机
与上节课的RepublishMessageRecoverer做对比
不同层处理的问题
2.2 TTL
当都存在时,以最短的TTL为准
2.2.1 实现TTL
上节课是这是配置类来完成队列和交换机的声明与绑定,这节课采用注解来实现
实现死信队列的声明
为延迟交换机设置超时时间,这里实现延迟交换机和队列采用配置类来实现
2.2.1.1 实现死信交换机和队列的声明和监听
@Slf4j
@Component
public class SpringRabbitListener {
@RabbitListener(queues = "simple.queue")
public void listenSimpleQueue(String msg) {
log.debug("消费者接收到simple.queue的消息:【" + msg + "】");
System.out.println(1 / 0);
log.info("消费者处理消息成功,msg:{}", msg);
}
@RabbitListener(bindings=@QueueBinding(
value=@Queue(name="dl.queue",durable="true"),
exchange = @Exchange(name="dl.direct"),
key = "dl"
))
public void listenDlQueue(String msg) {
log.debug("消费者接收到dl.queue的延迟消息:【" + msg + "】");
}
}
2.2.1.2 实现延迟交换机和队列的声明
在config包下创建TTLMessageConfig类来声明延迟交换机和队列
这里声明的是队列的超时时间
@Slf4j
@Configuration
public class TTLMessageConfig {
@Bean
public DirectExchange ttlDirectExchange() {
return new DirectExchange("ttl.direct",true,false);
}
@Bean
public Queue ttlQueue(){
return QueueBuilder
.durable("ttl.queue")
.deadLetterExchange("dl.direct")
.deadLetterRoutingKey("dl")
.ttl(10000)
.build();
}
@Bean
public Binding ttlBinding(){
return BindingBuilder.bind(ttlQueue()).to(ttlDirectExchange()).with("ttl");
}
}
2.2.1.3 单元测试
这里的messgae并没有设置超时时间,超时时间采用的ttl队列的超时时间
@Test
public void testTTLMessage(){
//1.准备消息
Message message = MessageBuilder.withBody("hello, ttl message!".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
.build();
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
correlationData.getFuture().addCallback(result -> {
//判断结果
if (result.isAck()) {
log.debug("消息成功发送到交换机,消息ID:{}",correlationData.getId());
} else {
log.error("消息投递到交换机失败,消息ID:{}", correlationData.getId());
//如果有需要,重发消息
}
}, ex -> {
//记录日志
log.error("消息发送失败:{}", ex);
//如果有需要,重发消息
});
//2.发送消息
String routingKey = "ttl";
rabbitTemplate.convertAndSend("ttl.direct", routingKey, message,correlationData);
//3.记录日志
log.debug("消息发送成功");
}
2.2.1.4 给消息设置超时时间
//1.准备消息
Message message = MessageBuilder.withBody("hello, ttl message!".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
.setExpiration("5000")
.build();
队列的TTL和消息的TTL同时存在时,谁时间短按谁走
2.3 延时队列
2.3.1 单机部署
我们在Centos7虚拟机中使用Docker来安装。
2.3.1.1 下载镜像
方式一:在线拉取
docker pull rabbitmq:3.8-management
方式二:从本地加载
在课前资料已经提供了镜像包:
上传到虚拟机中后,使用命令加载镜像即可:
docker load -i mq.tar
2.3.1.2 安装MQ
执行下面的命令来运行MQ容器:
docker run \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
-v mq-plugins:/plugins \
--name mq \
--hostname mq1 \
-p 15672:15672 \
-p 5672:5672 \
-d \
rabbitmq:3.8-management
2.3.2 安装DelayExchange插件
官方的安装指南地址为:https://blog.rabbitmq.com/posts/2015/04/scheduling-messages-with-rabbitmq
上述文档是基于linux原生安装RabbitMQ,然后安装插件。
因为我们之前是基于Docker安装RabbitMQ,所以下面我们会讲解基于Docker来安装RabbitMQ插件。
2.3.2.1下载插件
RabbitMQ有一个官方的插件社区,地址为:https://www.rabbitmq.com/community-plugins.html
其中包含各种各样的插件,包括我们要使用的DelayExchange插件:
大家可以去对应的GitHub页面下载3.8.9版本的插件,地址为https://github.com/rabbitmq/rabbitmq-delayed-message-exchange/releases/tag/3.8.9这个对应RabbitMQ的3.8.5以上版本。
下载好的插件:
2.3.2.2 上传插件
因为我们是基于Docker安装,所以需要先查看RabbitMQ的插件目录对应的数据卷。如果不是基于Docker的同学,请参考第一章部分,重新创建Docker容器。
我们之前设定的RabbitMQ的数据卷名称为mq-plugins
,所以我们使用下面命令查看数据卷:
docker volume inspect mq-plugins
可以得到下面结果:
接下来,将插件上传到这个目录即可:
2.3.2.3 安装插件
最后就是安装了,需要进入MQ容器内部来执行安装。我的容器名为mq
,所以执行下面命令:
docker exec -it mq bash
执行时,请将其中的 -it
后面的mq
替换为你自己的容器名.
进入容器内部后,执行下面命令开启插件:
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
结果如下:
2.3.2.4 使用插件
2.3.3 具体使用插件
2.3.3.1 基于注解的方式
2.3.1.2 基于Bean的方式
2.3.1.3 发消息时要加消息头
2.3.1.4 实现
设置延时队列及监听
@RabbitListener(bindings=@QueueBinding(
value=@Queue(name="delay.queue",durable="true"),
exchange = @Exchange(name="delay.direct",delayed = "true"),
key = "delay"
))
public void listenDelayExchange(String msg) {
log.debug("消费者接收到delay.queue的延迟消息:【" + msg + "】");
}
发送消息代码,构造器多了.setHeader("x-delay", 5000)
@Test
public void testDelayMessage(){
//1.准备消息
Message message = MessageBuilder.withBody("hello, delay message!".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
.setHeader("x-delay", 5000)
.build();
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
correlationData.getFuture().addCallback(result -> {
//判断结果
if (result.isAck()) {
log.debug("消息成功发送到交换机,消息ID:{}",correlationData.getId());
} else {
log.error("消息投递到交换机失败,消息ID:{}", correlationData.getId());
//如果有需要,重发消息
}
}, ex -> {
//记录日志
log.error("消息发送失败:{}", ex);
//如果有需要,重发消息
});
//2.发送消息
String routingKey = "delay";
rabbitTemplate.convertAndSend("delay.direct", routingKey, message,correlationData);
//3.记录日志
log.debug("延时消息发送成功");
}
虽然报错,但消费者还是收到了,这是因为delaydirect是改造的交换机,延迟转发5000所以才会报错。
如果想要不报错,就要改变我们对于重发策略的publisher-returns
的处理
2.3.1.5 修改publisher-returns的判断逻辑
@Slf4j
@Configuration
public class CommonConfig implements ApplicationContextAware {
@Override
public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
//1.获取RabbitTemplate对象
RabbitTemplate rabbitTemplate = applicationContext.getBean(RabbitTemplate.class);
//2.配置ReturnCallback
rabbitTemplate.setReturnCallback((message, replyCode, replyText, exchange, routingKey) -> {
//判断是否是延时消息
if (message.getMessageProperties().getReceivedDelay()>0) {
//是延时消息,直接忽略
return;
}
log.error("消息发送到队列失败:应答码:{},原因:{},交换机:{},路由键:{},消息内容:{}", replyCode, replyText, exchange, routingKey,message.toString());
//3.如果有需要,重发消息
});
}
}
2.3.4 总结
3 惰性队列
3.1 消息堆积问题
3.1.1 惰性队列的声明
3.1.2 基于Bean
在Config包下创建LazyConfig类来配置惰性队列
@Configuration
public class LazyConfig {
@Bean
public Queue lazyQueue(){
return QueueBuilder.durable("lazy.queue")
.lazy()
.build();
}
@Bean
public Queue normalQueue(){
return QueueBuilder.durable("normal.queue")
.build();
}
}
编写100000的单元测试
@Test
public void testLazyMessage(){
for (int i=0;i<100000;i++) {
//1.准备消息
Message message = MessageBuilder.withBody("hello, lazy message!".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.NON_PERSISTENT)
.build();
//2.发送消息
rabbitTemplate.convertAndSend("lazy.queue", message);
}
}
@Test
public void testNormalMessage(){
for (int i=0;i<100000;i++) {
//1.准备消息
Message message = MessageBuilder.withBody("hello, normal message!".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.NON_PERSISTENT)
.build();
//2.发送消息
rabbitTemplate.convertAndSend("normal.queue", message);
}
}
惰性队列一开始全在磁盘,就没在内存,而普通队列刚开始有一部分在内存
3.2 总结
4 MQ集群
4.1 集群分类
4.1.1 普通集群
4.2 普通集群部署
接下来,我们看看如何安装RabbitMQ的集群。
4.2.1 集群分类
在RabbitMQ的官方文档中,讲述了两种集群的配置方式:
- 普通模式:普通模式集群不进行数据同步,每个MQ都有自己的队列、数据信息(其它元数据信息如交换机等会同步)。例如我们有2个MQ:mq1,和mq2,如果你的消息在mq1,而你连接到了mq2,那么mq2会去mq1拉取消息,然后返回给你。如果mq1宕机,消息就会丢失。
- 镜像模式:与普通模式不同,队列会在各个mq的镜像节点之间同步,因此你连接到任何一个镜像节点,均可获取到消息。而且如果一个节点宕机,并不会导致数据丢失。不过,这种方式增加了数据同步的带宽消耗。
我们先来看普通模式集群,我们的计划部署3节点的mq集群:
主机名 | 控制台端口 | amqp通信端口 |
---|---|---|
mq1 | 8081 —> 15672 | 8071 —> 5672 |
mq2 | 8082 —> 15672 | 8072 —> 5672 |
mq3 | 8083 —> 15672 | 8073 —> 5672 |
集群中的节点标示默认都是:rabbit@[hostname]
,因此以上三个节点的名称分别为:
- rabbit@mq1
- rabbit@mq2
- rabbit@mq3
4.2.2 获取cookie
RabbitMQ底层依赖于Erlang,而Erlang虚拟机就是一个面向分布式的语言,默认就支持集群模式。集群模式中的每个RabbitMQ 节点使用 cookie 来确定它们是否被允许相互通信。
要使两个节点能够通信,它们必须具有相同的共享秘密,称为Erlang cookie。cookie 只是一串最多 255 个字符的字母数字字符。
每个集群节点必须具有相同的 cookie。实例之间也需要它来相互通信。
我们先在之前启动的mq容器中获取一个cookie值,作为集群的cookie。执行下面的命令:
docker exec -it mq cat /var/lib/rabbitmq/.erlang.cookie
可以看到cookie值如下:
RJZRZZIQNZHMKKOWUMOH
接下来,停止并删除当前的mq容器,我们重新搭建集群。
docker rm -f mq
清理数据卷
docker volume prune
4.2.3 准备集群配置
在/tmp目录新建一个配置文件 rabbitmq.conf:
cd /tmp
# 创建文件
touch rabbitmq.conf
文件内容如下:
loopback_users.guest = false
listeners.tcp.default = 5672
cluster_formation.peer_discovery_backend = rabbit_peer_discovery_classic_config
cluster_formation.classic_config.nodes.1 = rabbit@mq1
cluster_formation.classic_config.nodes.2 = rabbit@mq2
cluster_formation.classic_config.nodes.3 = rabbit@mq3
再创建一个文件,记录cookie
cd /tmp
# 创建cookie文件
touch .erlang.cookie
# 写入cookie
echo "RJZRZZIQNZHMKKOWUMOH" > .erlang.cookie
# 修改cookie文件的权限
chmod 600 .erlang.cookie
准备三个目录,mq1、mq2、mq3:
cd /tmp
# 创建目录
mkdir mq1 mq2 mq3
然后拷贝rabbitmq.conf、cookie文件到mq1、mq2、mq3:
# 进入/tmp
cd /tmp
# 拷贝
cp rabbitmq.conf mq1
cp rabbitmq.conf mq2
cp rabbitmq.conf mq3
cp .erlang.cookie mq1
cp .erlang.cookie mq2
cp .erlang.cookie mq3
4.2.4 启动集群
创建一个网络:
docker network create mq-net
docker volume create
运行命令
docker run -d --net mq-net \
-v ${PWD}/mq1/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq1 \
--hostname mq1 \
-p 8071:5672 \
-p 8081:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq2/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq2 \
--hostname mq2 \
-p 8072:5672 \
-p 8082:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq3/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq3 \
--hostname mq3 \
-p 8073:5672 \
-p 8083:15672 \
rabbitmq:3.8-management
查看日志
docker logs -f mq1
登录http://192.168.204.129:8081
4.2.5 测试
在mq1这个节点上添加一个队列:
如图,在mq2和mq3两个控制台也都能看到:
1)数据共享测试
点击这个队列,进入管理页面:
然后利用控制台发送一条消息到这个队列:
结果在mq2、mq3上都能看到这条消息:
2)可用性测试
我们让其中一台节点mq1宕机:
docker stop mq1
然后登录mq2或mq3的控制台,发现simple.queue也不可用了:
说明数据并没有拷贝到mq2和mq3。
4.3 镜像集群
4.4 镜像集群部署
4.4.1 镜像模式
在刚刚的案例中,一旦创建队列的主机宕机,队列就会不可用。不具备高可用能力。如果要解决这个问题,必须使用官方提供的镜像集群方案。
官方文档地址:https://www.rabbitmq.com/ha.html
4.4.2 镜像模式的特征
默认情况下,队列只保存在创建该队列的节点上。而镜像模式下,创建队列的节点被称为该队列的主节点,队列还会拷贝到集群中的其它节点,也叫做该队列的镜像节点。
但是,不同队列可以在集群中的任意节点上创建,因此不同队列的主节点可以不同。甚至,一个队列的主节点可能是另一个队列的镜像节点。
用户发送给队列的一切请求,例如发送消息、消息回执默认都会在主节点完成,如果是从节点接收到请求,也会路由到主节点去完成。镜像节点仅仅起到备份数据作用。
当主节点接收到消费者的ACK时,所有镜像都会删除节点中的数据。
总结如下:
- 镜像队列结构是一主多从(从就是镜像)
- 所有操作都是主节点完成,然后同步给镜像节点
- 主宕机后,镜像节点会替代成新的主(如果在主从同步完成前,主就已经宕机,可能出现数据丢失)
- 不具备负载均衡功能,因为所有操作都会有主节点完成(但是不同队列,其主节点可以不同,可以利用这个提高吞吐量)
4.4.3 镜像模式的配置
镜像模式的配置有3种模式:
ha-mode | ha-params | 效果 |
---|---|---|
准确模式exactly | 队列的副本量count | 集群中队列副本(主服务器和镜像服务器之和)的数量。count如果为1意味着单个副本:即队列主节点。count值为2表示2个副本:1个队列主和1个队列镜像。换句话说:count = 镜像数量 + 1。如果群集中的节点数少于count,则该队列将镜像到所有节点。如果有集群总数大于count+1,并且包含镜像的节点出现故障,则将在另一个节点上创建一个新的镜像。 |
all | (none) | 队列在群集中的所有节点之间进行镜像。队列将镜像到任何新加入的节点。镜像到所有节点将对所有群集节点施加额外的压力,包括网络I / O,磁盘I / O和磁盘空间使用情况。推荐使用exactly,设置副本数为(N / 2 +1)。 |
nodes | node names | 指定队列创建到哪些节点,如果指定的节点全部不存在,则会出现异常。如果指定的节点在集群中存在,但是暂时不可用,会创建节点到当前客户端连接到的节点。 |
这里我们以rabbitmqctl命令作为案例来讲解配置语法。
语法示例:
4.4.3.1.exactly模式
rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
rabbitmqctl set_policy
:固定写法ha-two
:策略名称,自定义"^two\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以two.
开头的队列名称'{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
: 策略内容"ha-mode":"exactly"
:策略模式,此处是exactly模式,指定副本数量"ha-params":2
:策略参数,这里是2,就是副本数量为2,1主1镜像"ha-sync-mode":"automatic"
:同步策略,默认是manual,即新加入的镜像节点不会同步旧的消息。如果设置为automatic,则新加入的镜像节点会把主节点中所有消息都同步,会带来额外的网络开销
4.4.3.2 all模式
rabbitmqctl set_policy ha-all "^all\." '{"ha-mode":"all"}'
ha-all
:策略名称,自定义"^all\."
:匹配所有以all.
开头的队列名'{"ha-mode":"all"}'
:策略内容"ha-mode":"all"
:策略模式,此处是all模式,即所有节点都会称为镜像节点
4.4.3.3 nodes模式
rabbitmqctl set_policy ha-nodes "^nodes\." '{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
rabbitmqctl set_policy
:固定写法ha-nodes
:策略名称,自定义"^nodes\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以nodes.
开头的队列名称'{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
: 策略内容"ha-mode":"nodes"
:策略模式,此处是nodes模式"ha-params":["rabbit@mq1", "rabbit@mq2"]
:策略参数,这里指定副本所在节点名称
4.4.4 测试
我们使用exactly模式的镜像,因为集群节点数量为3,因此镜像数量就设置为2.
进入docker
docker exec -it mq1 bash
运行下面的命令:
rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
下面,我们创建一个新的队列:
在任意一个mq控制台查看队列:
1)测试数据共享
给two.queue发送一条消息:
然后在mq1、mq2、mq3的任意控制台查看消息:
2)测试高可用
现在,我们让two.queue的主节点mq1宕机:
docker stop mq1
查看集群状态:
查看队列状态:
发现依然是健康的!并且其主节点切换到了rabbit@mq2上
4.5 仲裁队列
4.6 仲裁队列部署
从RabbitMQ 3.8版本开始,引入了新的仲裁队列,他具备与镜像队里类似的功能,但使用更加方便。
4.6.1.添加仲裁队列
在任意控制台添加一个队列,一定要选择队列类型为Quorum类型。
在任意控制台查看队列:
可以看到,仲裁队列的 + 2字样。代表这个队列有2个镜像节点。
因为仲裁队列默认的镜像数为5。如果你的集群有7个节点,那么镜像数肯定是5;而我们集群只有3个节点,因此镜像数量就是3.
4.6.2 测试
可以参考对镜像集群的测试,效果是一样的。
4.6.3 集群扩容
4.6.3.1.加入集群
1)启动一个新的MQ容器:
docker run -d --net mq-net \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq4 \
--hostname mq5 \
-p 8074:15672 \
-p 8084:15672 \
rabbitmq:3.8-management
2)进入容器控制台:
docker exec -it mq4 bash
3)停止mq进程
rabbitmqctl stop_app
4)重置RabbitMQ中的数据:
rabbitmqctl reset
5)加入mq1:
rabbitmqctl join_cluster rabbit@mq1
6)再次启动mq进程
rabbitmqctl start_app
4.6.3.2 增加仲裁队列副本
我们先查看下quorum.queue这个队列目前的副本情况,进入mq1容器:
docker exec -it mq1 bash
执行命令:
rabbitmq-queues quorum_status "quorum.queue"
结果:
现在,我们让mq4也加入进来:
rabbitmq-queues add_member "quorum.queue" "rabbit@mq4"
结果:
再次查看:
rabbitmq-queues quorum_status "quorum.queue"
查看控制台,发现quorum.queue的镜像数量也从原来的 +2 变成了 +3:
4.6.4 SpringAMQP创建仲裁队列
集群模式 application.yaml要改
从
spring:
rabbitmq:
host: 192.168.204.129 # rabbitMQ的ip地址
port: 5672 # 端口
改为
spring:
rabbitmq:
addresses: 192.168.204.129:8071, 192.168.204.129:8072, 192.168.204.129:8073
声明仲裁队列
@Configuration
public class QuorumConfig {
@Bean
public Queue quorumQueue() {
return QueueBuilder.durable("quorum.queue2")
.quorum()
.build();
}
}
注释config包下其他的配置类,重新启动
quorum.queue2创建成功