MQ
MessageQueue,消息队列,存放消息的队列,也就是事件驱动架构中的Broker
同步通讯和异步通讯
同步调用
Feign、RestTemplate
同步调用优缺点
- 优点
- 时效性强,可以立刻得到结果
- 缺点
- 耦合度高
- 性能下降
- 资源浪费
- 级联失败
异步调用
为了解除时间发布者与订阅者之间的耦合,两者并不是直接通信,而是有一个中间人(Broker)
发布者发布事件到Broker,不关心谁来订阅事件
订阅者从Broker订阅事件,不关心谁发来的信息
Broker是一个像数据总线的东西,所有的服务要接收数据和发送数据都发到这个总线上,这个总线就像协议一样,让服务间的通讯变得标准和可控
异步调用优缺点
- 优点
- 耦合度低: 每个服务都可以灵活插拔,可替换
- 吞吐量提升: 无需等待订阅者处理完成,响应更快捷
- 故障隔离: 服务没有直接调用,不存在级联失败问题
- 流量削峰: 不管发布事件的流量波动多大,都由Broker接收,订阅者可以按照自己的速度去处理时间
- 调用间没有阻塞: 不会造成无效的资源占用
- 缺点
- 依赖于Broker的可靠性、安全性、吞吐能力
- 架构复杂,业务没有明显的流程先,不好追踪管理
比较常见的MQ实现
- ActiveMQ
- RabbitMQ
- RocketMQ
- Kafka
几种常见MQ的对比
RabbitMQ | ActiveMQ | RocketMQ | Kafka | |
---|---|---|---|---|
公司/社区 | Rabbit | Apache | 阿里 | Apache |
开发语言 | Erlang | Java | Java | Scala&Java |
协议支持 | AMQP,XMPP,SMTP,STOMP | OpenWire,STOMP,REST,XMPP,AMQP | 自定义协议 | 自定义协议 |
可用性 | 高 | 一般 | 高 | 高 |
单机吞吐量 | 一般 | 差 | 高 | 非常高 |
消息延迟 | 微秒级 | 毫秒级 | 毫秒级 | 毫秒以内 |
消息可靠性 | 高 | 一般 | 高 | 一般 |
- 追求可用性:Kafka、 RocketMQ 、RabbitMQ
- 追求可靠性:RabbitMQ、RocketMQ
- 追求吞吐能力:RocketMQ、Kafka
- 追求消息低延迟:RabbitMQ、Kafka
RabbitMQ
RabbitMQ是基于Erlang语言开发的开源消息通信中间件
安装RabbitMQ
- 拉取镜像
docker pull rabbitmq:3.8-management
- 运行容器
docker run \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=123456 \
-v mq-plugins:/plugins \
--name mq \
--hostname mq \
-p 15672:15672 \
-p 5672:5672 \
-d \
rabbitmq:3.8-management
重要概念
- channel: 操作MQ的工具
- exchange: 消息路由,消息发送给它,它再发送到队列中
- queue: 缓存消息
- virtual host: 虚拟主机,是对queue、exchange等资源的逻辑分组
RabbitMQ模型
- 基本队列模型
- 工作队列模型
- 发布订阅模型
- 广播Fanout
- 路由Direct
- 通配Topic
基本消息队列的信息发送流程
- 建立connection
// 1. 建立连接
ConnectionFactory factory = new ConnectionFactory();
// 1.1 设置连接参数
factory.setHost("ip");
factory.setPort(端口);
factory.setVirtualHost("/"); // 虚拟主机
factory.setUsername("username");
factory.setPassword("password");
// 1.2 正式建立连接
Connection connection = factory.newConnection();
- 创建channel
// 2. 创建通道Channel
Channel channel = connection.createChannel();
- 利用channel声明队列
// 3. 创建队列
String queueName = "simple.queue"; // 队列名
channel.queueDeclare(queueName, false, false, false, null);
- 利用channel向队列发送消息
// 4. 发送消息
String message = "hello rebbitMQ";
channel.basicPublish("", queueName, null, message.getBytes());
// 5. 关闭通道和连接
channel.close();
connection.close();
基本消息队列的消息接受流程
- 建立connection
- 创建channel(消费者也创建队列是为了防止队列不存在)
- 利用channel声明队列
- 定义consumer的消费行为handleDelivery()
- 利用channel将消费者与队列绑定
channel.basicConsume(queueName, true, new DefaultCOnsumer(channel) {
@Override
public void handleDelivery(String consumerTag, Envelope envelope,
AMQP.BasicProperties properties, byte[] body) throws IOException {
String message = new String(body);
sout(message);
}
});
SpringAMQP
SpringAMQP是基于RabbitMQ封装的一套模版,并且还利用SpringBoot对其实现了自动装配
AMQP是一套用于在应用程序之间传递业务消息的开放标准,该协议与语言和平台无关,更符合微服务中独立性的要求
SpringAMQP是基于AMQP协议定义的一套API规范,提供了模版来发送和接受消息,包括两部分,其中SpringAMQP是基础抽象,SpringRabbit是底层的默认实现
SpringAMQP特征
- 侦听器容器:用于一部处理入栈消息
- 用于发送和接收消息的RabbitTemplate
- RabbitAdmin用于自动声明队列,交换和绑定
基本队列模型
- 引入AMQP依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
- 便写配置文件
spring:
rabbitmq:
host: ip
port: 5672
virtual-host: / # 虚拟主机
username: admin # 用户名
password: 123456 # 密码
- 便写发送消息测试类
@Autowired
private RabbitTemplate rabbitTemplate;
@Test
public void testSimpleQueue() {
String queueName = "simple.queue";
String message = "msg";
rabbitTemplate.convertAndSend(queueName, message);
}
- 编写配置文件
spring:
rabbitmq:
host: ip
port: 5672
virtual-host: / # 虚拟主机
username: admin # 用户名
password: 123456 # 密码
- 便写接受消息测试类
@RabbitListener(queues = "simple.queue")
public void listenSimpleQueueMessage(String msg) throws InterruptedException {
System.out.println("spring 消费者接收到消息: [" + msg + "]");
}
工作队列模型
具体代码和简单队列相同,区别在与消费者有多个
实现一个队列绑定多个队列
-
投递消息预取的方式默认是轮询
-
多个消费者绑定到一个队列,同一条消息只会被一个消费者处理
-
可以指定一个消费者处理完当前消息之后再去取新的消息:
spring:
rabbitmq:
listener:
prefetch: 1 # 每次只能取一条数据,处理完之后才能取下一条数据
发布/订阅模型
广播Fanout
会将消息转发给所有订阅了的队列
- 配置消费者队列与交换机的绑定
@Configuration
public class FanoutConfig {
// 交换机
@Bean
public FanoutExchange fanoutExchange() {
return new FanoutExchange("my.fanout");
}
// 队列1
@Bean
public Queue fanoutQueue1() {
return new Queue("fanout.queue1");
}
// 绑定1
@Bean
public Binding fanoutBinding1(Queue fanoutQueue1, FanoutExchange fanoutExchange) {
return BindingBuilder
.bind(fanoutQueue1)
.to(fanoutExchange);
}
// 队列2
@Bean
public Queue fanoutQueue2() {
return new Queue("fanout.queue2");
}
// 绑定2
@Bean
public Binding fanoutBinding2(Queue fanoutQueue2, FanoutExchange fanoutExchange) {
return BindingBuilder
.bind(fanoutQueue2)
.to(fanoutExchange);
}
}
- 接收消息
@RabbitListener(queues = "fanout.queue1")
public void listenFanoutQueue1(String msg) throws InterruptedException {
System.out.println("消费者接收到Fanout1消息: " + msg);
}
@RabbitListener(queues = "fanout.queue2")
public void listenFanoutQueue2(String msg) throws InterruptedException {
System.out.println("消费者接收到Fanout2消息: " + msg);
}
- 发送消息
@Test
public void testSendFanoutExchange() {
// 交换机名称
String exchangeName = "my.fanout";
// 消息
String message = "hello everyone";
// 发送消息
rabbitTemplate.convertAndSend(exchangeName, "", message);
}
路由Direct
会将接收到的信息根据规则路由到指定的Queue,因此称为路由模式
- 每一个Queue都与Exchange设置一个BindingKey
- 发布者发送信息时,指定消息的RoutingKey
- Exchange将消息路由到BindingKey
- 编写接收方
@RabbitListener(bindings = @QueueBinding(
value = @Queue(name = "direct.queue1"),
exchange = @Exchange(name = "my.direct", type = ExchangeTypes.DIRECT),
key = {"red", "blue"}
))
public void listenDirectQueue1(String msg) {
System.out.println("消费者接收到Direct1消息: " + msg);
}
@RabbitListener(bindings = @QueueBinding(
value = @Queue(name = "direct.queue2"),
exchange = @Exchange(name = "my.direct", type = ExchangeTypes.DIRECT),
key = {"red", "yellow"}
))
public void listenDirectQueue2(String msg) {
System.out.println("消费者接收到Direct2消息: " + msg);
}
- 编写发送方
@Test
public void testSendDirectExchange() {
// 交换机名称
String exchangeName = "my.direct";
// 消息
// String message = "hello blue";
// String message = "hello red";
String message = "hello yellow";
// 发送消息
// rabbitTemplate.convertAndSend(exchangeName, "blue", message);
// rabbitTemplate.convertAndSend(exchangeName, "red", message);
rabbitTemplate.convertAndSend(exchangeName, "yellow", message);
}
通配Topic
- TopicExchange与DirectExchange类似,区别在于routingKey可以是多个单词的列表,并且以
.
分割 - Queue与Exchange指定BindingKey时可以使用通配符
- #: 代指0或多个单词
- *: 代指一个单词
- 编写接收端
@RabbitListener(bindings = @QueueBinding(
value = @Queue(name = "topic.queue1"),
exchange = @Exchange(name = "my.topic", type = ExchangeTypes.TOPIC),
key = "china.#"
))
public void listenTopicQueue1(String msg) {
System.out.println("消费者接收到Topic1消息: " + msg);
}
@RabbitListener(bindings = @QueueBinding(
value = @Queue(name = "topic.queue2"),
exchange = @Exchange(name = "my.topic", type = ExchangeTypes.TOPIC),
key = "#.news"
))
public void listenTopicQueue2(String msg) {
System.out.println("消费者接收到Topic2消息: " + msg);
}
- 编写发送端
@Test
public void testSendTopicExchange() {
// 交换机名称
String exchangeName = "my.topic";
// 消息
// String message = "hello china";
// String message = "hello news";
String message = "今天晴天";
// 发送消息
// rabbitTemplate.convertAndSend(exchangeName, "china.news", message);
rabbitTemplate.convertAndSend(exchangeName, "china.weather", message);
// rabbitTemplate.convertAndSend(exchangeName, "usa.news", message);
}
SpringAMQP消息转换器
未使用消息转换器时
- 声明队列
@Bean
public Queue objectQueue() {
return new Queue("object.queue");
}
- 发送消息
@Test
public void testSendObjectQueue() {
Map<String, Object> message = new HashMap<>();
message.put("name", "张三");
message.put("age", 23);
rabbitTemplate.convertAndSend("object.queue", message);
}
结果是序列化的
使用消息转换器步骤
- 引入依赖
<dependency>
<groupId>com.fasterxml.jackson.core</groupId>
<artifactId>jackson-databind</artifactId>
</dependency>
- 声明MessageConverter
@Bean
public MessageConverter messageConverter() {
return new Jackson2JsonMessageConverter();
}
- 重复发送信息
此时队列中数据
接收信息
- 引入依赖
<dependency>
<groupId>com.fasterxml.jackson.core</groupId>
<artifactId>jackson-databind</artifactId>
</dependency>
- 声明MessageConverter
@Bean
public MessageConverter messageConverter() {
return new Jackson2JsonMessageConverter();
}
- 监听队列
@RabbitListener(queues = "object.queue")
public void listenObjectQueue(Map<String, Object> msg) {
System.out.println("消费者接收到Object信息: " + msg);
}
服务异步通信
MQ常见问题
- 消息可靠性问题: 确保消息发送之后至少被消费一次
- 延迟消费问题: 实现消息的延迟投递
- 高可用问题: 避免单点MQ故障而导致的不可用问题
- 消息堆积问题: 高并发情况下海量的消息堆积,无法及时消费
消息可靠性
RabbitMQ提供了publisher confirm机制来避免消息发送到MQ过程中丢失。这种机制必须给每隔消息指定一个唯一ID,消息发送到MQ以后,会返回一个结果给发送者,表示消息是否处理成功
生产者确认机制
RabbitMQ提供了publisher confirm机制来避免消息发送到MQ过程中丢失,消息发送到MQ以后,会返回一个结果给发送者,表示消息是否处理成功
返回结果有两种:
publisher-confirm
: 发送者确认- 消息成功投递到交换机,返回
ack
- 消息未投递到交换机,返回
nack
- 消息成功投递到交换机,返回
publisher-return
,发送者回执- 消息投递到交换机了,但是没有路由到队列,返回
ack
和路由失败原因
- 消息投递到交换机了,但是没有路由到队列,返回
注:
确认机制发送消息时,需要给每个消息设置一个全局唯一id,以区分不同消息,避免ack冲突
实现步骤
- 消息发布者添加配置文件
spring:
rabbitmq:
publisher-confirm-type: correlated
publisher-returns: true
template:
mandatory: true
# publisher-confirm-type: 开启publisher-confirm
# simple: 同步等待confirm结果,直到超时
# currelated: 异步回调,定义ConfirmCallback,MQ返回结果时会回调这个ConfirmCallback
# publisher-returns: 开启publish-return功能,同样是基于callback机制,不过是定义returnCallback
# template.mandatory: 定义消息路由失败时的策略,true 则调用returnCallback,false 则直接丢弃消息
- 配置ReturnCallback的配置文件
@Slf4j
@Configuration
public class CommonConfig implements ApplicationContextAware {
@Override
public void setApplicationContext(ApplicationContext applicationContext) throws BeansException {
// 获取RabbitTemplate
RabbitTemplate rabbitTemplate = applicationContext.getBean(RabbitTemplate.class);
// 设置ReturnCallBack
// message: 你发送失败的那条消息是什么
// replyCode: 失败的状态码
// replyText: 失败的原因
// exchange: 失败时投递到了哪个交换机
// routingKey: 失败时的RoutingKey
rabbitTemplate.setReturnCallback((message, replyCode,
replyText, exchange, routingKey) -> {
log.info("消息发送失败,应答码{},原因{},交换机{},路由键{},消息{}",
replyCode, replyText, exchange, routingKey, message.toString());
});
}
}
- 发送消息,指定消息Id、消息ConfirmCallback
@Test
public void testSendMessageToSimpleQueue() {
// 1. 消息体
String message = "hello, world!";
// 2 准备CorrelationData
// 2.1. 消息Id,需要封装到CorrelationData
CorrelationData correlationData = new CorrelationData(UUID.randomUUID().toString());
// 2.2 添加callback
correlationData.getFuture().addCallback(result -> {
// 判断结果
if (result.isAck()) {
log.debug("消息成功投递到交换机,消息Id: {}", correlationData.getId());
} else {
log.error("消息投递到交换机失败,消息Id: {}", correlationData.getId());
}
}, ex -> {
log.error("消息发送失败: {}", ex);
});
// 3. 发送消息
rabbitTemplate.convertAndSend("amq.topic", "simple.test", message, correlationData);
}
消息持久化
MQ是默认内存存储信息,开启持久化功能可以确保缓存在MQ中的消息不丢失
只要声明时没有明确指出是非持久化的,默认都是持久化的
- 交换机持久化
@Bean
public DirectExchange simpleDirect() {
return new DirectExchange("simple.direct", true, false);
}
- 队列持久化
@Bean Queue simpleQueue() {
return QueueBuilder.durable("simple.queue").build();
}
- 消息持久化
@Test
public void sendDurableMessage() {
// 1. 准备消息
Message message = MessageBuilder.withBody("hello world".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
.build();
// 2. 发送消息
rabbitTemplate.convertAndSend("simple.queue", message);
}
消息者确认
RabbitMQ支持消费者确认机制,消费者处理消息后可以向MQ发送ACK回执,MQ收到ACK之后才会删除该消息
SpringAMQP允许配置三种确认模式:
manual
: 手动ACK
,需要在业务代码结束后,调用API
发送ACK
auto
: 自动ACK
,由Spring
监测Listener
代码是否出现异常,没有异常则返回ACK
,抛出异常则返回NACK
推荐使用none
: 关闭ACK
,MQ
假定消费者获取消息后会成功处理,因此消息投递后立即被删除
使用方式
修改消费者配置文件:
spring:
rabbitmq:
listener:
simple:
acknowledge-mode: auto
手动发送ACK和NACK
// 手动发送ACK
channel.basicAck(message.getMessageProperties().getDeliveryTag(), false);
// 手动发送NACK
channel.basicNack(message.getMessageProperties().getDeliveryTag(), false, true);
重试机制
进一步完善的配置文件:
spring:
rabbitmq:
listener:
simple:
acknowledge-mode: auto
retry:
enabled: true # 开启消费者失败重试
initial-interval: 1000 # 初次的失败等待市场为1秒
multiplier: 2 # 失败的等待时长倍数,下次等待时长 = multiolier * last-interval
max-attempts: 4 # 最大尝试次数
stateless: true # true无状态,false有状态,如果业务中包含事务,这里改为false
开启重试模式后,充实次数耗尽,如果消息依然生效,则需要有MessageRecovery
接口来处理,其包含三种不同的实现:
RejectAndDontRequeueRecoverer
: 重试耗尽后,返回REJECT
,消息重新入队ImmediateRequeueMessageRrcoverer
: 重试耗尽后,返回NACK
,消息重新入队RepublishMessageRecoverer
: 重试耗尽后,将失败消息投递到指定的交换机
配置:
@Bean
public DirectExchange errorMessageExchange() {
return new DirectExchange("error.direct");
}
@Bean
public Queue errorQueue() {
return new Queue("error.queue", true);
}
@Bean
public Binding errorBinding() {
return BindingBuilder.bind(errorQueue()).to(errorMessageExchange()).with("error");
}
@Bean
public MessageRecoverer errorMessageRecoverer(RabbitTemplate rabbitTemplate) {
return new RepublishMessageRecoverer(rabbitTemplate, "error.direct", "error");
}
简单总结
RabbitMQ如何保证消息的可靠性?
- 开启生产者确认机制(
config
、return
),确保生产者的消息能到达队列 - 开启持久化功能,(交换机、队列、消息),确保消息未消费前在队列中不会丢失
- 开启消费者确认机制为
auto
,由Spring
确认消息处理成功后完成ack
- 开启消费者失败重试机制(
Spring
的retry
本地重试机制,减少requeue
重新入队造成的mq的压力),并设置MessageREcoverer
,多次重试失败后将消息投递到异常交换机,交给人工处理
死信交换机
当一个队列中的消息满足下列情况之一时,可以成为死信:
- 消费者使用
basic.reject
或basic.nack
声明消费失败,并且消息的requeue
参数设置为false
- 消息是一个过期消息,超时无人消费
- 要投递的队列消息堆积满了,最早的消息可能成为死信
如果该队列配置了dead-letter-exchange
属性,指定了一个交换机,那么队列中的死信就会投递到这个交换机中,而这个交换机称为死信交换机
TTL
Time-To-Live,如果一个队列中的消息TTL结束仍未消费,则会变成死信
TTL超时分为两种情况:
- 消息所在的队列设置了存活时间
- 消息本身设置了存活时间
使用步骤:
- 基于注解声明一组死信交换机和队列
@RabbitListener(bindings = @QueueBinding(
value = @Queue(name = "dl.queue", durable = "true"),
exchange = @Exchange(name = "dl.direct"),
key = "dl"
))
public void listenDlQueue(String msg) {
log.info("接收到 dl.queue的延迟消息: {}", msg);
}
- 进行绑定
@Bean
public DirectExchange ttlDirectExchange() {
return new DirectExchange("ttl.direct");
}
@Bean
public Queue ttlQueue() {
return QueueBuilder
.durable("ttl.direct")
.ttl(10000)
.deadLetterExchange("dl.direct")
.deadLetterRoutingKey("dl")
.build();
}
@Bean
public Binding ttlBinding() {
return BindingBuilder
.bind(ttlQueue())
.to(ttlDirectExchange())
.with("ttl");
}
- 测试
@Test
public void testTTLMessage() {
// 1. 准备消息
Message message = MessageBuilder
.withBody("hello ttl".getBytes(StandardCharsets.UTF_8))
.setDeliveryMode(MessageDeliveryMode.PERSISTENT)
.setExpiration("5000") // 设置超时时间为5秒
.build();
// 2. 发送消息
rabbitTemplate.convertAndSend("ttl.direct", "ttl", message);
log.info("消息已经成功发送");
}
延迟交换机插件
安装插件步骤
- 运行容器
docker run \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
-v mq-plugins:/plugins \
--name mq \
--hostname mq1 \
-p 15672:15672 \
-p 5672:5672 \
-d \
rabbitmq:3.8-management
- 根据文档安装插件: rebbitmq文档
原理
DelayExchange需要将一个交换机声明为Delayed类型,当我们发送消息到DelayExchange
时,流程:
- 接收消息
- 判断消息是否具备
x-delay
属性 - 如果有
x-delay
属性,说明是延迟消息,持久化到硬盘,读取x-delay
值,作为延迟时间 - 返回
rounting not found
结果给消息发送者 x-delay
时间到期后,重新投递消息到指定队列
使用DelayExchange
插件的使用也非常简单:声明一个交换机,交换机的类型可以是任意类型,只需要设定delayed属性为true即可,然后声明队列与其绑定即可。
- 声明DelayExchange交换机
基于注解方式(推荐):
也可以基于@Bean的方式:
- 发送消息
发送消息时,一定要携带x-delay属性,指定延迟的时间:
惰性队列
特征:
- 接收到消息之后直接存入磁盘而不是内存(会有延迟)
- 消费者要消费信息时才会从磁盘中读取并加载到内存(会有延迟)
- 支持数百万条消息存储(在磁盘中存储空间大)
使用命令行方式开启:
rabbitmqctl set_policy Lazy "^lazy-queue$" '{"queue-mode":"lazy"}' --apply-to queues
使用Bean方式开启:
@Bean
public Queue lazyQueue() {
return QueueBuilder.durable("lazy.queue")
.lazy()
.build();
}
使用注解方式开启:
@RabbitListener(queuesToDeclare = @Queue(
name = "lazy.queue",
durable = "true",
arguments = @Argument(name = "x-queue-mode", value = "lazy")
))
public void listenLazyQueue(String msg) {
log.info("接收到 lazy.queue的消息: {}", msg);
}
优缺点
优点:
- 基于磁盘存储,消息上限高
- 没有间歇性的page-out,性能比较稳定
缺点
- 基于磁盘存储,消息时效性会降低
- 性能受限于磁盘的IO
消息堆积问题
当生产者发送消息的速度超过了消费者处理消息的速度,就会导致队列中的消息堆积,直到队列存储消息达到上限,之后发送的消息就会成为死信,这就是消息堆积问题
解决思路:
- 增加更多的消费者,提高消费速度(Work Queue模式)
- 在消费者内开启线程池加快消息处理速度
- 扩大队列容积,提高堆积上限
MQ集群
集群的分类
普通集群
: 一种分布式集群,将队列分散到集群的各个节点,从而提高整个集群的并发能力镜像集群
: 一种主从集群,普通集群的基础上,添加了主从备份的功能,提高集群的数据可用性仲裁队列
: 集群镜像虽然支持主从,但主从同步并不是强调强一致的,某些情况下可能有数据丢失的风险,RabbitMQ3.8版本推出了仲裁队列
来代替镜像集群,底层采用Raft
协议确保主从的数据一致性
普通集群
特征:
- 会在集群的各个节点间共享部分数据,包括: 交换机、队列元信息,不包含队列中的消息
- 当访问集群某节点时,如果队列不在该节点,会从数据所在节点传递到当前节点并返回
- 队列所在节点宕机,队列中的消息就会丢失
部署普通集群
我们先来看普通模式集群,我们的计划部署3节点的mq集群:
主机名 | 控制台端口 | amqp通信端口 |
---|---|---|
mq1 | 8081 —> 15672 | 8071 —> 5672 |
mq2 | 8082 —> 15672 | 8072 —> 5672 |
mq3 | 8083 —> 15672 | 8073 —> 5672 |
集群中的节点标示默认都是:rabbit@[hostname]
,因此以上三个节点的名称分别为:
- rabbit@mq1
- rabbit@mq2
- rabbit@mq3
1.获取cookie
RabbitMQ底层依赖于Erlang,而Erlang虚拟机就是一个面向分布式的语言,默认就支持集群模式。集群模式中的每个RabbitMQ 节点使用 cookie 来确定它们是否被允许相互通信。
要使两个节点能够通信,它们必须具有相同的共享秘密,称为Erlang cookie。cookie 只是一串最多 255 个字符的字母数字字符。
每个集群节点必须具有相同的 cookie。实例之间也需要它来相互通信。
我们先在之前启动的mq容器中获取一个cookie值,作为集群的cookie。执行下面的命令:
docker exec -it mq cat /var/lib/rabbitmq/.erlang.cookie
可以看到cookie值如下:
FXZMCVGLBIXZCDEMMVZQ
接下来,停止并删除当前的mq容器,我们重新搭建集群。
docker rm -f mq
2.准备集群配置
在/tmp目录新建一个配置文件 rabbitmq.conf:
cd /tmp
# 创建文件
touch rabbitmq.conf
文件内容如下:
loopback_users.guest = false
listeners.tcp.default = 5672
cluster_formation.peer_discovery_backend = rabbit_peer_discovery_classic_config
cluster_formation.classic_config.nodes.1 = rabbit@mq1
cluster_formation.classic_config.nodes.2 = rabbit@mq2
cluster_formation.classic_config.nodes.3 = rabbit@mq3
再创建一个文件,记录cookie
cd /tmp
# 创建cookie文件
touch .erlang.cookie
# 写入cookie
echo "FXZMCVGLBIXZCDEMMVZQ" > .erlang.cookie
# 修改cookie文件的权限
chmod 600 .erlang.cookie
准备三个目录,mq1、mq2、mq3:
cd /tmp
# 创建目录
mkdir mq1 mq2 mq3
然后拷贝rabbitmq.conf、cookie文件到mq1、mq2、mq3:
# 进入/tmp
cd /tmp
# 拷贝
cp rabbitmq.conf mq1
cp rabbitmq.conf mq2
cp rabbitmq.conf mq3
cp .erlang.cookie mq1
cp .erlang.cookie mq2
cp .erlang.cookie mq3
3.启动集群
创建一个网络:
docker network create mq-net
docker volume create
运行命令
docker run -d --net mq-net \
-v ${PWD}/mq1/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq1 \
--hostname mq1 \
-p 8071:5672 \
-p 8081:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq2/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq2 \
--hostname mq2 \
-p 8072:5672 \
-p 8082:15672 \
rabbitmq:3.8-management
docker run -d --net mq-net \
-v ${PWD}/mq3/rabbitmq.conf:/etc/rabbitmq/rabbitmq.conf \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq3 \
--hostname mq3 \
-p 8073:5672 \
-p 8083:15672 \
rabbitmq:3.8-management
测试
在mq1这个节点上添加一个队列:
如图,在mq2和mq3两个控制台也都能看到:
4.数据共享测试
点击这个队列,进入管理页面:
然后利用控制台发送一条消息到这个队列:
结果在mq2、mq3上都能看到这条消息:
5.可用性测试
我们让其中一台节点mq1宕机:
docker stop mq1
然后登录mq2或mq3的控制台,发现simple.queue也不可用了:
说明数据并没有拷贝到mq2和mq3。
镜像集群
本质是主从模式,特征:
- 交换机、队列、队列中的消息会在各个mq的镜像节点之间同步备份
- 创建队列的节点被称为该队列的主节点,备份到的其他节点叫做该队列的镜像节点
- 一个队列的主节点可能是另一个队列的镜像节点
- 所有的操作都是主节点完成,然后同步给镜像节点
- 主节点宕机后,镜像节点会替代成为新的主节点
部署镜像集群
1.镜像模式的配置
镜像模式的配置有3种模式:
ha-mode | ha-params | 效果 |
---|---|---|
准确模式exactly | 队列的副本量count | 集群中队列副本(主服务器和镜像服务器之和)的数量。count如果为1意味着单个副本:即队列主节点。count值为2表示2个副本:1个队列主和1个队列镜像。换句话说:count = 镜像数量 + 1。如果群集中的节点数少于count,则该队列将镜像到所有节点。如果有集群总数大于count+1,并且包含镜像的节点出现故障,则将在另一个节点上创建一个新的镜像。 |
all | (none) | 队列在群集中的所有节点之间进行镜像。队列将镜像到任何新加入的节点。镜像到所有节点将对所有群集节点施加额外的压力,包括网络I / O,磁盘I / O和磁盘空间使用情况。推荐使用exactly,设置副本数为(N / 2 +1)。 |
nodes | node names | 指定队列创建到哪些节点,如果指定的节点全部不存在,则会出现异常。如果指定的节点在集群中存在,但是暂时不可用,会创建节点到当前客户端连接到的节点。 |
这里我们以rabbitmqctl命令作为案例来讲解配置语法。
语法示例:
exactly模式
rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
rabbitmqctl set_policy
:固定写法ha-two
:策略名称,自定义"^two\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以two.
开头的队列名称'{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
: 策略内容"ha-mode":"exactly"
:策略模式,此处是exactly模式,指定副本数量"ha-params":2
:策略参数,这里是2,就是副本数量为2,1主1镜像"ha-sync-mode":"automatic"
:同步策略,默认是manual,即新加入的镜像节点不会同步旧的消息。如果设置为automatic,则新加入的镜像节点会把主节点中所有消息都同步,会带来额外的网络开销
all模式
rabbitmqctl set_policy ha-all "^all\." '{"ha-mode":"all"}'
ha-all
:策略名称,自定义"^all\."
:匹配所有以all.
开头的队列名'{"ha-mode":"all"}'
:策略内容"ha-mode":"all"
:策略模式,此处是all模式,即所有节点都会称为镜像节点
nodes模式
rabbitmqctl set_policy ha-nodes "^nodes\." '{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
rabbitmqctl set_policy
:固定写法ha-nodes
:策略名称,自定义"^nodes\."
:匹配队列的正则表达式,符合命名规则的队列才生效,这里是任何以nodes.
开头的队列名称'{"ha-mode":"nodes","ha-params":["rabbit@nodeA", "rabbit@nodeB"]}'
: 策略内容"ha-mode":"nodes"
:策略模式,此处是nodes模式"ha-params":["rabbit@mq1", "rabbit@mq2"]
:策略参数,这里指定副本所在节点名称
2.测试
我们使用exactly模式的镜像,因为集群节点数量为3,因此镜像数量就设置为2.
运行下面的命令:
docker exec -it mq1 rabbitmqctl set_policy ha-two "^two\." '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic"}'
下面,我们创建一个新的队列:
在任意一个mq控制台查看队列:
3.测试数据共享
给two.queue发送一条消息:
然后在mq1、mq2、mq3的任意控制台查看消息:
4.测试高可用
现在,我们让two.queue的主节点mq1宕机:
docker stop mq1
查看集群状态:
查看队列状态:
发现依然是健康的!并且其主节点切换到了rabbit@mq2上
仲裁队列
用来替代镜像队列
- 与镜像队列一样,都是主从模式,支持主从数据同步
- 使用非常简单,没有复杂的配置
- 主从同步基于
Raft
协议,强一致
搭建仲裁队列
1.添加仲裁队列
在任意控制台添加一个队列,一定要选择队列类型为Quorum类型。
在任意控制台查看队列:
可以看到,仲裁队列的 + 2字样。代表这个队列有2个镜像节点。
因为仲裁队列默认的镜像数为5。如果你的集群有7个节点,那么镜像数肯定是5;而我们集群只有3个节点,因此镜像数量就是3.
2.测试
可以参考对镜像集群的测试,效果是一样的。
3.集群扩容
加入集群
1)启动一个新的MQ容器:
docker run -d --net mq-net \
-v ${PWD}/.erlang.cookie:/var/lib/rabbitmq/.erlang.cookie \
-e RABBITMQ_DEFAULT_USER=itcast \
-e RABBITMQ_DEFAULT_PASS=123321 \
--name mq4 \
--hostname mq5 \
-p 8074:15672 \
-p 8084:15672 \
rabbitmq:3.8-management
2)进入容器控制台:
docker exec -it mq4 bash
3)停止mq进程
rabbitmqctl stop_app
4)重置RabbitMQ中的数据:
rabbitmqctl reset
5)加入mq1:
rabbitmqctl join_cluster rabbit@mq1
6)再次启动mq进程
rabbitmqctl start_app
增加仲裁队列副本
我们先查看下quorum.queue这个队列目前的副本情况,进入mq1容器:
docker exec -it mq1 bash
执行命令:
rabbitmq-queues quorum_status "quorum.queue"
结果:
现在,我们让mq4也加入进来:
rabbitmq-queues add_member "quorum.queue" "rabbit@mq4"
结果:
再次查看:
rabbitmq-queues quorum_status "quorum.queue"
查看控制台,发现quorum.queue的镜像数量也从原来的 +2 变成了 +3:
使用AMQP创建仲裁队列
- 配置文件
spring:
rabbitmq:
addresses: ip1:port1, ip2:port2, ip3:port3
username: admin
password: 123321
virtual-host: /
- 配置队列
@Bean
public Queue quorumQueue() {
return QueueBuilder.durable("quorum.queue").quorum().build();
}
如何保证高可用性
- 普通队列是一种分布式集群,将队列分散到集群的各个节点,从而提高到整个集群的并发能力,没有提高可用性
- 镜像队列是一种主从集群,普通集群的基础上,添加了主从备份的功能,提高集群的数据可用性
- 仲裁队列底层使用
Raft
协议,保证了强一致性,但是需要Rabbit高版本