RabbitMQ两种集群模式配置管理

RabbitMQ集群的两种模式
1)普通模式:默认的集群模式。

2)镜像模式:把需要的队列做成镜像队列。

普通模式:默认的集群模式

RabbitMQ集群中节点包括内存节点、磁盘节点。内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘上。如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。那么内存节点的性能只能体现在资源管理上,比如增加或删除队列(queue),虚拟主机(vrtual hosts),交换机(exchange)等,发送和接受message速度同磁盘节点一样。一个集群至少要有一个磁盘节点。一个rabbitmq集群中可以共享user,vhost,exchange等,所有的数据和状态都是必须在所有节点上复制的,对于queue根据集群模式不同,应该有不同的表现。在集群模式下只要有任何一个节点能够工作,RabbitMQ集群对外就能提供服务。

默认的集群模式,queue创建之后,如果没有其它policy,则queue就会按照普通模式集群。对于Queue来说,消息实体只存在于其中一个节点,A、B两个节点仅有相同的元数据,即队列结构,但队列的元数据仅保存有一份,即创建该队列的rabbitmq节点(A节点),当A节点宕机,你可以去其B节点查看,./rabbitmqctl list_queues发现该队列已经丢失,但声明的exchange还存在。

当消息进入A节点的Queue中后,consumer从B节点拉取时,RabbitMQ会临时在A、B间进行消息传输,把A中的消息实体取出并经过B发送给consumer,所以consumer应平均连接每一个节点,从中取消息。该模式存在一个问题就是当A节点故障后,B节点无法取到A节点中还未消费的消息实体。如果做了队列持久化或消息持久化,那么得等A节点恢复,然后才可被消费,并且在A节点恢复之前其它节点不能再创建A节点已经创建过的持久队列;如果没有持久化的话,消息就会失丢。这种模式更适合非持久化队列,只有该队列是非持久的,客户端才能重新连接到集群里的其他节点,并重新创建队列。假如该队列是持久化的,那么唯一办法是将故障节点恢复起来。

为什么RabbitMQ不将队列复制到集群里每个节点呢?这与它的集群的设计本意相冲突,集群的设计目的就是增加更多节点时,能线性的增加性能(CPU、内存)和容量(内存、磁盘)。当然RabbitMQ新版本集群也支持队列复制(有个选项可以配置)。比如在有五个节点的集群里,可以指定某个队列的内容在2个节点上进行存储,从而在性能与高可用性之间取得一个平衡(应该就是指镜像模式)。

镜像模式:把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案

该模式解决了上述问题,其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。所以在对可靠性要求较高的场合中适用,一个队列想做成镜像队列,需要先设置policy,然后客户端创建队列的时候,rabbitmq集群根据“队列名称”自动设置是普通集群模式或镜像队列。具体如下:

队列通过策略来使能镜像。策略能在任何时刻改变,rabbitmq队列也近可能的将队列随着策略变化而变化;非镜像队列和镜像队列之间是有区别的,前者缺乏额外的镜像基础设施,没有任何slave,因此会运行得更快。

为了使队列称为镜像队列,你将会创建一个策略来匹配队列,设置策略有两个键“ha-mode和 ha-params(可选)”。ha-params根据ha-mode设置不同的值,下面表格说明这些key的选项。

语法讲解:

在cluster中任意节点启用策略,策略会自动同步到集群节点

1 rabbitmqctl set_policy-p/ha-all"^"'{"ha-mode":"all"}'

这行命令在vhost名称为hrsystem创建了一个策略,策略名称为ha-allqueue,策略模式为 all 即复制到所有节点,包含新增节点,策略正则表达式为 “^” 表示所有匹配所有队列名称。例如:

1 rabbitmqctl set_policy-p/ha-all"^message"'{"ha-mode":"all"}'

注意:“^message” 这个规则要根据自己修改,这个是指同步“message”开头的队列名称,我们配置时使用的应用于所有队列,所以表达式为“^”

RabbitMQ普通集群配置
1)RabbitMQ集群搭建

环境:有三台主机,主机名和IP如下:

live-mq-01:172.18.8.157
live-mq-02:172.18.8.158
live-mq-03:172.18.8.161

同步主机的/etc/hosts文件。

172.18.8.157live-mq-01
172.18.8.158live-mq-02
172.18.8.161live-mq-03

在三个节点分别安装rabbitmq-server,如果是CentOS使用yum即可,如果是Debian使用apt-get即可。

1 $apt-getinstall rabbitmq-server

在三个节点分别启动rabbitmq-server

$service rabbitmq-server start

$rabbitmq-server-detached

同步erlang.cookie文件,通过Erlang的分布式特性(通过magic cookie认证节点)进行RabbitMQ集群,各RabbitMQ服务为对等节点,即每个节点都提供服务给客户端连接,进行消息发送与接收。

root@live-mq-01:~# cat /var/lib/rabbitmq/.erlang.cookie 
WJLPTHZIMFLJRTOGPYNA
root@live-mq-02:~# cat /var/lib/rabbitmq/.erlang.cookie 
WJLPTHZIMFLJRTOGPYNA
root@live-mq-03:~# cat /var/lib/rabbitmq/.erlang.cookie 
WJLPTHZIMFLJRTOGPYNA

在live-mq-01节点上查看集群信息,此时集群中应只有自己。

root@live-mq-01:~# rabbitmqctl cluster_status
Cluster status of node'rabbit@live-mq-01'...
[
{nodes,[{disc,['rabbit@live-mq-01']}]},
#集群中的节点,disc表示为磁盘模式,ram表示为内存模式
{running_nodes,['rabbit@live-mq-01']},
#正在运行的集群节点
{cluster_name,<<"rabbit@live-mq-01">>},
#集群的名称
{partitions,[]}
]
...done.

下面将live-mq-01、live-mq-02、live-mq-03组成集群:

live-mq-02加入live-mq-01节点。

root@live-mq-02:~# rabbitmqctl stop_app
root@live-mq-02:~# rabbitmqctl join_cluster rabbit@live-mq-01
root@live-mq-02:~# rabbitmqctl start_app

live-mq-03加入live-mq-01节点。

root@live-mq-03:~# rabbitmqctl stop_app
root@live-mq-03:~# rabbitmqctl join_cluster rabbit@live-mq-01 --ram
root@live-mq-03:~# rabbitmqctl start_app

此时live-mq-02与live-mq-03也会自动建立连接,上面我的两个节点,其中live-mq-02是磁盘节点,live-mq-03是内存节点,但live-mq-01节点默认是磁盘节点(一个集群中最少要有一个磁盘节点)。如果想把live-mq-02由磁盘节点改成内存节点,使用如下change_cluster_node_type命令修改即可,但要先stop:

root@live-mq-02:~# rabbitmqctl stop_app
Stopping node'rabbit@live-mq-02'...
...done.
root@live-mq-02:~# rabbitmqctl change_cluster_node_type ram
Turning'rabbit@live-mq-02'intoaram node...
...done.
root@live-mq-02:~# rabbitmqctl start_app
Starting node'rabbit@live-mq-02'...
...done.

查看集群信息

root@live-mq-01:~# rabbitmqctl cluster_status
Cluster status of node'rabbit@live-mq-01'...
[{nodes,[{disc,['rabbit@live-mq-01']},
{ram,['rabbit@live-mq-03','rabbit@live-mq-02']}]},
{running_nodes,['rabbit@live-mq-02','rabbit@live-mq-03','rabbit@live-mq-01']},
{cluster_name,<<"rabbit@live-mq-01">>},
{partitions,[]}]
...done.

我们可以看到三个节点都加入了集群中,两个ram节点、一个disc节点。其中三个节点都在运行中,以及集群名称显示。

2)允许远程用户访问

第一、添加mq用户并设置密码

1 root@live-mq-01:~# rabbitmqctl add_user mq 123456

第二、设置mq用户为管理员

1 root@live-mq-01:~# rabbitmqctl set_user_tags mq administrator

第三、设置mq用户的权限,指定允许访问的vhost以及write/read

root@live-mq-01:~# rabbitmqctl set_permissions -p "/" mq ".*" ".*" ".*"
Setting permissions foruser"live"invhost"/"...
...done.

第四、查看vhost(/)允许哪些用户访问

root@live-mq-01:~# rabbitmqctl list_permissions -p /
Listing permissions invhost"/"...
mq.*.*.*
...done.

第五、配置允许远程访问的用户,rabbitmq的guest用户默认不允许远程主机访问。

root@live-mq-01:~# cat /etc/rabbitmq/rabbitmq.config 
[                                                                                                                                  
{rabbit,[{tcp_listeners,[5672]},{loopback_users,["mq"]}]}
].

ps:主机1设置完以上这些之后,在集群内的机器都会同步此配置,但是/etc/rabbitmq/rabbitmq.config文件不会同步。

root@live-mq-02:~# rabbitmqctl list_users
Listing users...
mq[administrator]
...done.

最后,可以选择删除默认guest用户(密码也是guest)

1 root@live-mq-01:~# rabbitmqctl delete_user guest

3)RabbitMQ退出集群

假设要把rabbit@live-mq-02退出集群,在rabbit@live-mq-02上执行:

$rabbitmqctl stop_app
$rabbitmqctl reset
$rabbitmqctl start_app

在集群主节点上执行

 $rabbitmqctl forget_cluster_node rabbit@live-mq-02

4)RabbitMQ集群重启

集群重启时,最后一个挂掉的节点应该第一个重启,如果因特殊原因(比如同时断电),而不知道哪个节点最后一个挂掉。可用以下方法重启:

先在一个节点上执行

$rabbitmqctl force_boot
$service rabbitmq-server start

在其他节点上执行

$service rabbitmq-server start

查看cluster状态是否正常(要在所有节点上查询)。

rabbitmqctl cluster_status

如果有节点没加入集群,可以先退出集群,然后再重新加入集群。

上述方法不适合内存节点重启,内存节点重启的时候是会去磁盘节点同步数据,如果磁盘节点没起来,内存节点一直失败。

5)RabbitMQ开启图形化页面

RabbitMQ提供了一个非常友好的图形化监控页面插件(rabbitmq_management),让我们可以一目了然看��Rabbit的状态或集群状态。

分别在三个节点上执行开启rabbitmq_management插件的命令,注意开启几个节点在监控页面就可以看见几个节点:

root@live-mq-01:~# rabbitmq-plugins enable rabbitmq_management
root@live-mq-01:~# rabbitmq-plugins list

查看监听端口(插件监控的端口是15672)

root@live-mq-01:~# netstat -nplt
Active Internet connections(only servers)
Proto Recv-QSend-QLocal Address          Foreign Address        State      PID/Program name
tcp        0      00.0.0.0:4369            0.0.0.0:*              LISTEN      617/epmd        
tcp        0      00.0.0.0:22              0.0.0.0:*              LISTEN      484/sshd        
tcp        0      00.0.0.0:15672          0.0.0.0:*              LISTEN      2220/beam.smp  
tcp        0      00.0.0.0:10050          0.0.0.0:*              LISTEN      595/zabbix_agentd
tcp        0      00.0.0.0:25672          0.0.0.0:*              LISTEN      2220/beam.smp  
tcp6      0      0:::10050                :::*                    LISTEN      595/zabbix_agentd
tcp6      0      0:::5672                :::*                    LISTEN      2220/beam.smp

打开浏览器,直接访问IP:15672即可看到RabbitMQ的监控画面(输入mq用户和密码),如下:

从图中可以看出集群中的三个节点信息,其中两个内存节点,一个磁盘节点。另外,在memory字段显示了当前内存的使用情况和最高可以使用的内存量,同样在Disk space字段显示了磁盘空间和最低可用的磁盘空间。基于这两点,下面说一下RabbitMQ对内存和磁盘的控制。

一、内存控制

vm_memory_high_watermark该值为内存阈值,默认为0.4。意思为物理内存的40%。40%的内存并不是内存的最大的限制,它是一个发布的节制,当达到40%时Erlang会做GC。最坏的情况是使用内存80%。如果把该值配置为0,将关闭所有的publishing 。

root@live-mq-01:~# rabbitmqctl set_vm_memory_high_watermark 0

Paging内存阈值,该值为默认为0.5,该值为vm_memory_high_watermark的20%时,将把内存数据写到磁盘。

如机器内存16G,当RABBITMQ占用内存1.28G(16*0.4*0.2)时把内存数据放到磁盘。

二、硬盘控制

当RabbitMQ的磁盘空闲空间小于50M(默认),生产者将被BLOCK。

如果采用集群模式,磁盘节点空闲空间小于50M将导致其他节点的生产者都被block。可以通过disk_free_limit来对进行配置。

如果要从远程登录怎么做呢?处于安全考虑,guest这个默认的用户只能通过http://localhost:15672来登录,其他的IP无法直接用这个guest帐号。这里我们可以通过配置文件来实现从远程登录管理界面,只要编辑/etc/rabbitmq/rabbitmq.config文件(没有就新增),添加以下配置就可以了。

[  
{rabbit,[{tcp_listeners,[5672]},{loopback_users,["mq"]}]}  
].

这个操作在上面配置中都已经做过了。

6)注意事项

cookie在所有节点上必须完全一样,同步时一定要注意。
erlang是通过主机名来连接服务,必须保证各个主机名之间可以ping通。可以通过编辑/etc/hosts来手工添加主机名和IP对应关系。如果主机名ping不通,rabbitmq服务启动会失败。
如果queue是非持久化queue,则如果创建queue的那个节点失败,发送方和接收方可以创建同样的queue继续运作。但如果是持久化queue,则只能等创建queue的那个节点恢复后才能继续服务。
在集群元数据有变动的时候需要有disk node在线,但是在节点加入或退出的时候所有的disk node必须全部在线。如果没有正确退出disk node,集群会认为这个节点当掉了,在这个节点恢复之前不要加入其它节点。
RabbitMQ镜像集群配置
上述配置的RabbitMQ默认集群模式,但并不包管队列的高可用性,尽管互换机、绑定这些可以复制到集群里的任何一个节点,然则队列内容不会复制。固然该模式解决一项目组节点压力,但队列节点宕机直接导致该队列无法应用,只能守候重启,所以要想在队列节点宕机或故障也能正常应用,就要复制队列内容到集群里的每个节点,须要创建镜像队列。

镜像队列是基于普通的集群模式的,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。

我是通过上面开启的网页的管理端来设置的镜像队列,也可以通过命令,这里先说其中的网页设置方式:

1、点击admin菜单–>右侧的Policies选项–>左侧最下下边的Add/update a policy。

2、按照图中的内容根据自己的需求填写。

3、点击Add policy添加策略。

此时你就会来你的两台rabbitmq服务器的网页管理端amind菜单下看见刚才创建的队列了,下面我们来添加一个queues队列来看看效果,这里只是测试结果,其它的先不填写。

设置镜像队列策略

在任意一个节点上执行:

1 root@live-mq-01:~# rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'

将所有队列设置为镜像队列,即队列会被复制到各个节点,各个节点状态保持一直。

我们去live-mq-02上查看策略。

root@live-mq-02:~# rabbitmqctl list_policies
Listing policies...
/ha-allall^{"ha-mode":"all"}0
...done.

此时镜像集群就已经完成了,可以在任意节点上创建队列,看看其他两个节点是否会同步。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值