一、一主一从(同一台服务器)
Broker搭建(主-10.101.68.203)
1、创建挂载的目录
2、使用Docker命令复制Name Server服务中得Broker配置。
docker cp 容器ID:容器内文件位置 本地位置
docker cp 55a0480ec59d:/home/rocketmq/rocketmq-4.9.3/conf /home/docker/mount/rocketmq/broker/broker-a/
3、修改conf中的broker.conf文件
# 所属集群名称,如果节点较多可以配置多个
brokerClusterName = DefaultCluster
#broker名称,master和slave使用相同的名称,表明他们的主从关系
brokerName = broker-a
#0表示Master,大于0表示不同的slave
brokerId = 0
#表示几点做消息删除动作,默认是凌晨4点
deleteWhen = 04
#在磁盘上保留消息的时长,单位是小时
fileReservedTime = 48
#有三个值:SYNC_MASTER,ASYNC_MASTER,SLAVE;同步和异步表示Master和Slave之间同步数据的机制;
brokerRole = SYNC_MASTER
#刷盘策略,取值为:ASYNC_FLUSH,SYNC_FLUSH表示同步刷盘和异步刷盘;SYNC_FLUSH消息写入磁盘后才返回成功状态,ASYNC_FLUSH不需要;
flushDiskType = SYNC_FLUSH
# 设置broker节点所在服务器的ip地址(**这个非常重要,主从模式下,从节点会根据主节点的brokerIP2来同步数据,如果不配置,主从无法同步,brokerIP1设置为自己外网能访问的ip,服务器双网卡情况下必须配置,比如阿里云这种,主节点需要配置ip1和ip2,从节点只需要配置ip1即可)
brokerIP1 = 10.101.68.203
#nameServer地址,分号分割
namesrvAddr=10.101.68.203:9876
#Broker 对外服务的监听端口,
listenPort = 10911
#是否允许Broker自动创建Topic
autoCreateTopicEnable = true
#是否允许 Broker 自动创建订阅组
autoCreateSubscriptionGroup = true
#linux开启epoll
useEpollNativeSelector = true
#数据存放的根目录
#storePathRootDir = /root/store/path
#commit log保存目录
#storePathCommitLog = /root/store/path/commitlog
#消费队列存储路径存储路径
#storePathConsumerQueue = /root/store/path/consumequeue
slaveReadEnable = true
rocketmq默认配置和解释(详细版)
4、创建容器
docker run -d --name rocketmq-broker-a --network rocketmq -p 10909:10909 -p 10911:10911 -v /home/docker/mount/rocketmq/broker/broker-a/logs:/root/logs -v /home/docker/mount/rocketmq/broker/broker-a/store:/root/store -v /home/docker/mount/rocketmq/broker/broker-a/conf:/home/rocketmq/rocketmq-4.9.3/conf apache/rocketmq:4.9.3 sh mqbroker -c /home/rocketmq/rocketmq-4.9.3/conf/broker.conf
5、创建成功
Broker搭建(从-10.101.68.203)
1、创建挂载的目录
2、使用Docker命令复制Name Server服务中得Broker配置。
docker cp 容器ID:容器内文件位置 本地位置
docker cp 55a0480ec59d:/home/rocketmq/rocketmq-4.9.3/conf /home/docker/mount/rocketmq/broker/broker-a-s/
3、修改conf中的broker.conf文件
# 所属集群名称,如果节点较多可以配置多个
brokerClusterName = DefaultCluster
#broker名称,master和slave使用相同的名称,表明他们的主从关系
brokerName = broker-a
#0表示Master,大于0表示不同的slave
brokerId = 1
#表示几点做消息删除动作,默认是凌晨4点
deleteWhen = 04
#在磁盘上保留消息的时长,单位是小时
fileReservedTime = 48
#有三个值:SYNC_MASTER,ASYNC_MASTER,SLAVE;同步和异步表示Master和Slave之间同步数据的机制;
brokerRole = SLAVE
#刷盘策略,取值为:ASYNC_FLUSH,SYNC_FLUSH表示同步刷盘和异步刷盘;SYNC_FLUSH消息写入磁盘后才返回成功状态,ASYNC_FLUSH不需要;
flushDiskType = SYNC_FLUSH
# 设置broker节点所在服务器的ip地址(**这个非常重要,主从模式下,从节点会根据主节点的brokerIP2来同步数据,如果不配置,主从无法同步,brokerIP1设置为自己外网能访问的ip,服务器双网卡情况下必须配置,比如阿里云这种,主节点需要配置ip1和ip2,从节点只需要配置ip1即可)
brokerIP1 = 10.101.68.203
#nameServer地址,分号分割
namesrvAddr=10.101.68.203:9876
#Broker 对外服务的监听端口,
listenPort = 11911
#是否允许Broker自动创建Topic
autoCreateTopicEnable = true
#是否允许 Broker 自动创建订阅组
autoCreateSubscriptionGroup = true
#linux开启epoll
useEpollNativeSelector = true
#数据存放的根目录
#storePathRootDir = /root/store/path
#commit log保存目录
#storePathCommitLog = /root/store/path/commitlog
#消费队列存储路径存储路径
#storePathConsumerQueue = /root/store/path/consumequeue
slaveReadEnable = true
rocketmq默认配置和解释(详细版)
4、创建容器
docker run -d --name rocketmq-broker-a-s --network rocketmq -p 11909:10909 -p 11911:11911 -v /home/docker/mount/rocketmq/broker/broker-a-s/logs:/root/logs -v /home/docker/mount/rocketmq/broker/broker-a-s/store:/root/store -v /home/docker/mount/rocketmq/broker/broker-a-s/conf:/home/rocketmq/rocketmq-4.9.3/conf apache/rocketmq:4.9.3 sh mqbroker -c /home/rocketmq/rocketmq-4.9.3/conf/broker.conf
5、创建成功
二、一主一从(两台服务器)
Broker搭建(主-10.101.68.203)
1、创建挂载的目录
2、使用Docker命令复制Name Server服务中得Broker配置。
docker cp 容器ID:容器内文件位置 本地位置
docker cp 55a0480ec59d:/home/rocketmq/rocketmq-4.9.3/conf /home/docker/mount/rocketmq/broker/broker-a/
3、修改conf中的broker.conf文件
# 所属集群名称,如果节点较多可以配置多个
brokerClusterName = DefaultCluster
#broker名称,master和slave使用相同的名称,表明他们的主从关系
brokerName = broker-a
#0表示Master,大于0表示不同的slave
brokerId = 0
#表示几点做消息删除动作,默认是凌晨4点
deleteWhen = 04
#在磁盘上保留消息的时长,单位是小时
fileReservedTime = 48
#有三个值:SYNC_MASTER,ASYNC_MASTER,SLAVE;同步和异步表示Master和Slave之间同步数据的机制;
brokerRole = SYNC_MASTER
#刷盘策略,取值为:ASYNC_FLUSH,SYNC_FLUSH表示同步刷盘和异步刷盘;SYNC_FLUSH消息写入磁盘后才返回成功状态,ASYNC_FLUSH不需要;
flushDiskType = SYNC_FLUSH
# 设置broker节点所在服务器的ip地址(**这个非常重要,主从模式下,从节点会根据主节点的brokerIP2来同步数据,如果不配置,主从无法同步,brokerIP1设置为自己外网能访问的ip,服务器双网卡情况下必须配置,比如阿里云这种,主节点需要配置ip1和ip2,从节点只需要配置ip1即可)
brokerIP1 = 10.101.68.203
#brokerIP2 = 10.101.68.203
#nameServer地址,分号分割
namesrvAddr=10.101.68.203:9876
#Broker 对外服务的监听端口,
listenPort = 10911
#是否允许Broker自动创建Topic
autoCreateTopicEnable = true
#是否允许 Broker 自动创建订阅组
autoCreateSubscriptionGroup = true
#linux开启epoll
useEpollNativeSelector = true
#数据存放的根目录
#storePathRootDir = /root/store/path
#commit log保存目录
#storePathCommitLog = /root/store/path/commitlog
#消费队列存储路径存储路径
#storePathConsumerQueue = /root/store/path/consumequeue
slaveReadEnable = true
rocketmq默认配置和解释(详细版)
4、创建容器,端口映射需增加10912
docker run -d --name rocketmq-broker-a --network rocketmq -p 10909:10909 -p 10911:10911 -p 10912:10912 -v /home/docker/mount/rocketmq/broker/broker-a/logs:/root/logs -v /home/docker/mount/rocketmq/broker/broker-a/store:/root/store -v /home/docker/mount/rocketmq/broker/broker-a/conf:/home/rocketmq/rocketmq-4.9.3/conf apache/rocketmq:4.9.3 sh mqbroker -c /home/rocketmq/rocketmq-4.9.3/conf/broker.conf
5、创建成功
Broker搭建(从-10.101.68.204)
1、创建挂载的目录
2、复制主Broker的conf文件的内容到从Broker的conf中
3、修改conf中的broker.conf文件
# 所属集群名称,如果节点较多可以配置多个
brokerClusterName = DefaultCluster
#broker名称,master和slave使用相同的名称,表明他们的主从关系
brokerName = broker-a
#0表示Master,大于0表示不同的slave
brokerId = 1
#表示几点做消息删除动作,默认是凌晨4点
deleteWhen = 04
#在磁盘上保留消息的时长,单位是小时
fileReservedTime = 48
#有三个值:SYNC_MASTER,ASYNC_MASTER,SLAVE;同步和异步表示Master和Slave之间同步数据的机制;
brokerRole = SLAVE
#刷盘策略,取值为:ASYNC_FLUSH,SYNC_FLUSH表示同步刷盘和异步刷盘;SYNC_FLUSH消息写入磁盘后才返回成功状态,ASYNC_FLUSH不需要;
flushDiskType = SYNC_FLUSH
# 设置broker节点所在服务器的ip地址(**这个非常重要,主从模式下,从节点会根据主节点的brokerIP2来同步数据,如果不配置,主从无法同步,brokerIP1设置为自己外网能访问的ip,服务器双网卡情况下必须配置,比如阿里云这种,主节点需要配置ip1和ip2,从节点只需要配置ip1即可)
brokerIP1 = 10.101.68.204
#nameServer地址,分号分割
namesrvAddr=10.101.68.203:9876
#Broker 对外服务的监听端口,
listenPort = 10911
#是否允许Broker自动创建Topic
autoCreateTopicEnable = true
#是否允许 Broker 自动创建订阅组
autoCreateSubscriptionGroup = true
#linux开启epoll
useEpollNativeSelector = true
#数据存放的根目录
#storePathRootDir = /root/store/path
#commit log保存目录
#storePathCommitLog = /root/store/path/commitlog
#消费队列存储路径存储路径
#storePathConsumerQueue = /root/store/path/consumequeue
slaveReadEnable = true
rocketmq默认配置和解释(详细版)
4、创建容器
docker run -d --name rocketmq-broker-a-s -p 10909:10909 -p 10911:10911 -v /home/docker/mount/rocketmq/broker/broker-a-s/logs:/root/logs -v /home/docker/mount/rocketmq/broker/broker-a-s/store:/root/store -v /home/docker/mount/rocketmq/broker/broker-a-s/conf:/home/rocketmq/rocketmq-4.9.3/conf apache/rocketmq:4.9.3 sh mqbroker -c /home/rocketmq/rocketmq-4.9.3/conf/broker.conf
5、创建成功
注意
1、如果数据不同步,做以下操作:
- 需将主Broker上对应的端口开放。
- 重启rocketmq-namesrv服务,重新注册。
- 开启brokerIP2配置。
解决rocketmq主从同步失败的问题
2、主从的brokerClusterName、brokerName需要一致。
3、多主多从类似,故不做过多演示,如果有问题,欢迎留言,协助解决。
4、需要注意brokerIP1、brokerIP2、namesrvAddr等参数的修改。
三、相关推荐
【部署】【三】RocketMQ 单节点主从(n1m1s1) Docker 部署
Docker 搭建RocketMQ一主一从,故障演练踩坑,从节点没有同步主节点数据,IP1,IP2
RocketMQ在顺序消费模式下从broker不会消费消息
rocketmq默认配置和解释(详细版)
【RocketMQ】详解如何搭建一个多主多从的RocketMQ集群
https://blog.csdn.net/m0_49962289/article/details/123507560