RabbitMQ集群的两种模式
1)普通模式:默认的集群模式。
2)镜像模式:把需要的队列做成镜像队列。
普通模式:默认的集群模式
RabbitMQ集群中节点包括内存节点、磁盘节点。内存节点就是将所有数据放在内存,磁盘节点将数据放在磁盘上。如果在投递消息时,打开了消息的持久化,那么即使是内存节点,数据还是安全的放在磁盘。那么内存节点的性能只能体现在资源管理上,比如增加或删除队列(queue),虚拟主机(vrtual hosts),交换机(exchange)等,发送和接受message速度同磁盘节点一样。一个集群至少要有一个磁盘节点。一个rabbitmq集群中可以共享user,vhost,exchange等,所有的数据和状态都是必须在所有节点上复制的,对于queue根据集群模式不同,应该有不同的表现。在集群模式下只要有任何一个节点能够工作,RabbitMQ集群对外就能提供服务。
默认的集群模式,queue创建之后,如果没有其它policy,则queue就会按照普通模式集群。对于Queue来说,消息实体只存在于其中一个节点,A、B两个节点仅有相同的元数据,即队列结构,但队列的元数据仅保存有一份,即创建该队列的rabbitmq节点(A节点),当A节点宕机,你可以去其B节点查看,./rabbitmqctl list_queues发现该队列已经丢失,但声明的exchange还存在。
当消息进入A节点的Queue中后,consumer从B节点拉取时,RabbitMQ会临时在A、B间进行消息传输,把A中的消息实体取出并经过B发送给consumer,所以consumer应平均连接每一个节点,从中取消息。该模式存在一个问题就是当A节点故障后,B节点无法取到A节点中还未消费的消息实体。如果做了队列持久化或消息持久化,那么得等A节点恢复,然后才可被消费,并且在A节点恢复之前其它节点不能再创建A节点已经创建过的持久队列;如果没有持久化的话,消息就会失丢。这种模式更适合非持久化队列,只有该队列是非持久的,客户端才能重新连接到集群里的其他节点,并重新创建队列。假如该队列是持久化的,那么唯一办法是将故障节点恢复起来。
为什么RabbitMQ不将队列复制到集群里每个节点呢?这与它的集群的设计本意相冲突,集群的设计目的就是增加更多节点时,能线性的增加性能(CPU、内存)和容量(内存、磁盘)。当然RabbitMQ新版本集群也支持队列复制(有个选项可以配置)。比如在有五个节点的集群里,可以指定某个队列的内容在2个节点上进行存储,从而在性能与高可用性之间取得一个平衡(应该就是指镜像模式)。
镜像模式:把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案
该模式解决了上述问题,其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。所以在对可靠性要求较高的场合中适用,一个队列想做成镜像队列,需要先设置policy,然后客户端创建队列的时候,rabbitmq集群根据“队列名称”自动设置是普通集群模式或镜像队列。具体如下:
队列通过策略来使能镜像。策略能在任何时刻改变,rabbitmq队列也近可能的将队列随着策略变化而变化;非镜像队列和镜像队列之间是有区别的,前者缺乏额外的镜像基础设施,没有任何slave,因此会运行得更快。
为了使队列称为镜像队列,你将会创建一个策略来匹配队列,设置策略有两个键“ha-mode和 ha-params(可选)”。ha-params根据ha-mode设置不同的值,下面表格说明这些key的选项。
语法讲解:
在cluster中任意节点启用策略,策略会自动同步到集群节点
1 rabbitmqctl set_policy-p/ha-all"^"'{"ha-mode":"all"}'
这行命令在vhost名称为hrsystem创建了一个策略,策略名称为ha-allqueue,策略模式为 all 即复制到所有节点,包含新增节点,策略正则表达式为 “^” 表示所有匹配所有队列名称。例如:
1 rabbitmqctl set_policy-p/ha-all"^message"'{"ha-mode":"all"}'
注意:“^message” 这个规则要根据自己修改,这个是指同步“message”开头的队列名称,我们配置时使用的应用于所有队列,所以表达式为“^”
RabbitMQ普通集群配置
1)RabbitMQ集群搭建
环境:有三台主机,主机名和IP如下:
live-mq-01:172.18.8.157
live-mq-02:172.18.8.158
live-mq-03:172.18.8.161
同步主机的/etc/hosts文件。
172.18.8.157live-mq-01
172.18.8.158live-mq-02
172.18.8.161live-mq-03
在三个节点分别安装rabbitmq-server,如果是CentOS使用yum即可,如果是Debian使用apt-get即可。
1 $apt-getinstall rabbitmq-server
在三个节点分别启动rabbitmq-server
$service rabbitmq-server start
或
$rabbitmq-server-detached
同步erlang.cookie文件,通过Erlang的分布式特性(通过magic cookie认证节点)进行RabbitMQ集群,各RabbitMQ服务为对等节点,即每个节点都提供服务给客户端连接,进行消息发送与接收。
root@live-mq-01:~# cat /var/lib/rabbitmq/.erlang.cookie
WJLPTHZIMFLJRTOGPYNA
root@live-mq-02:~# cat /var/lib/rabbitmq/.erlang.cookie
WJLPTHZIMFLJRTOGPYNA
root@live-mq-03:~# cat /var/lib/rabbitmq/.erlang.cookie
WJLPTHZIMFLJRTOGPYNA
在live-mq-01节点上查看集群信息,此时集群中应只有自己。
root@live-mq-01:~# rabbitmqctl cluster_status
Cluster status of node'rabbit@live-mq-01'...
[
{nodes,[{disc,['rabbit@live-mq-01']}]},
#集群中的节点,disc表示为磁盘模式,ram表示为内存模式
{running_nodes,['rabbit@live-mq-01']},
#正在运行的集群节点
{cluster_name,<<"rabbit@live-mq-01">>},
#集群的名称
{partitions,[]}
]
...done.
下面将live-mq-01、live-mq-02、live-mq-03组成集群:
live-mq-02加入live-mq-01节点。
root@live-mq-02:~# rabbitmqctl stop_app
root@live-mq-02:~# rabbitmqctl join_cluster rabbit@live-mq-01
root@live-mq-02:~# rabbitmqctl start_app
live-mq-03加入live-mq-01节点。
root@live-mq-03:~# rabbitmqctl stop_app
root@live-mq-03:~# rabbitmqctl join_cluster rabbit@live-mq-01 --ram
root@live-mq-03:~# rabbitmqctl start_app
此时live-mq-02与live-mq-03也会自动建立连接,上面我的两个节点,其中live-mq-02是磁盘节点,live-mq-03是内存节点,但live-mq-01节点默认是磁盘节点(一个集群中最少要有一个磁盘节点)。如果想把live-mq-02由磁盘节点改成内存节点,使用如下change_cluster_node_type命令修改即可,但要先stop:
root@live-mq-02:~# rabbitmqctl stop_app
Stopping node'rabbit@live-mq-02'...
...done.
root@live-mq-02:~# rabbitmqctl change_cluster_node_type ram
Turning'rabbit@live-mq-02'intoaram node...
...done.
root@live-mq-02:~# rabbitmqctl start_app
Starting node'rabbit@live-mq-02'...
...done.
查看集群信息
root@live-mq-01:~# rabbitmqctl cluster_status
Cluster status of node'rabbit@live-mq-01'...
[{nodes,[{disc,['rabbit@live-mq-01']},
{ram,['rabbit@live-mq-03','rabbit@live-mq-02']}]},
{running_nodes,['rabbit@live-mq-02','rabbit@live-mq-03','rabbit@live-mq-01']},
{cluster_name,<<"rabbit@live-mq-01">>},
{partitions,[]}]
...done.
我们可以看到三个节点都加入了集群中,两个ram节点、一个disc节点。其中三个节点都在运行中,以及集群名称显示。
2)允许远程用户访问
第一、添加mq用户并设置密码
1 root@live-mq-01:~# rabbitmqctl add_user mq 123456
第二、设置mq用户为管理员
1 root@live-mq-01:~# rabbitmqctl set_user_tags mq administrator
第三、设置mq用户的权限,指定允许访问的vhost以及write/read
root@live-mq-01:~# rabbitmqctl set_permissions -p "/" mq ".*" ".*" ".*"
Setting permissions foruser"live"invhost"/"...
...done.
第四、查看vhost(/)允许哪些用户访问
root@live-mq-01:~# rabbitmqctl list_permissions -p /
Listing permissions invhost"/"...
mq.*.*.*
...done.
第五、配置允许远程访问的用户,rabbitmq的guest用户默认不允许远程主机访问。
root@live-mq-01:~# cat /etc/rabbitmq/rabbitmq.config
[
{rabbit,[{tcp_listeners,[5672]},{loopback_users,["mq"]}]}
].
ps:主机1设置完以上这些之后,在集群内的机器都会同步此配置,但是/etc/rabbitmq/rabbitmq.config文件不会同步。
root@live-mq-02:~# rabbitmqctl list_users
Listing users...
mq[administrator]
...done.
最后,可以选择删除默认guest用户(密码也是guest)
1 root@live-mq-01:~# rabbitmqctl delete_user guest
3)RabbitMQ退出集群
假设要把rabbit@live-mq-02退出集群,在rabbit@live-mq-02上执行:
$rabbitmqctl stop_app
$rabbitmqctl reset
$rabbitmqctl start_app
在集群主节点上执行
$rabbitmqctl forget_cluster_node rabbit@live-mq-02
4)RabbitMQ集群重启
集群重启时,最后一个挂掉的节点应该第一个重启,如果因特殊原因(比如同时断电),而不知道哪个节点最后一个挂掉。可用以下方法重启:
先在一个节点上执行
$rabbitmqctl force_boot
$service rabbitmq-server start
在其他节点上执行
$service rabbitmq-server start
查看cluster状态是否正常(要在所有节点上查询)。
rabbitmqctl cluster_status
如果有节点没加入集群,可以先退出集群,然后再重新加入集群。
上述方法不适合内存节点重启,内存节点重启的时候是会去磁盘节点同步数据,如果磁盘节点没起来,内存节点一直失败。
5)RabbitMQ开启图形化页面
RabbitMQ提供了一个非常友好的图形化监控页面插件(rabbitmq_management),让我们可以一目了然看��Rabbit的状态或集群状态。
分别在三个节点上执行开启rabbitmq_management插件的命令,注意开启几个节点在监控页面就可以看见几个节点:
root@live-mq-01:~# rabbitmq-plugins enable rabbitmq_management
root@live-mq-01:~# rabbitmq-plugins list
查看监听端口(插件监控的端口是15672)
root@live-mq-01:~# netstat -nplt
Active Internet connections(only servers)
Proto Recv-QSend-QLocal Address Foreign Address State PID/Program name
tcp 0 00.0.0.0:4369 0.0.0.0:* LISTEN 617/epmd
tcp 0 00.0.0.0:22 0.0.0.0:* LISTEN 484/sshd
tcp 0 00.0.0.0:15672 0.0.0.0:* LISTEN 2220/beam.smp
tcp 0 00.0.0.0:10050 0.0.0.0:* LISTEN 595/zabbix_agentd
tcp 0 00.0.0.0:25672 0.0.0.0:* LISTEN 2220/beam.smp
tcp6 0 0:::10050 :::* LISTEN 595/zabbix_agentd
tcp6 0 0:::5672 :::* LISTEN 2220/beam.smp
打开浏览器,直接访问IP:15672即可看到RabbitMQ的监控画面(输入mq用户和密码),如下:
从图中可以看出集群中的三个节点信息,其中两个内存节点,一个磁盘节点。另外,在memory字段显示了当前内存的使用情况和最高可以使用的内存量,同样在Disk space字段显示了磁盘空间和最低可用的磁盘空间。基于这两点,下面说一下RabbitMQ对内存和磁盘的控制。
一、内存控制
vm_memory_high_watermark该值为内存阈值,默认为0.4。意思为物理内存的40%。40%的内存并不是内存的最大的限制,它是一个发布的节制,当达到40%时Erlang会做GC。最坏的情况是使用内存80%。如果把该值配置为0,将关闭所有的publishing 。
root@live-mq-01:~# rabbitmqctl set_vm_memory_high_watermark 0
Paging内存阈值,该值为默认为0.5,该值为vm_memory_high_watermark的20%时,将把内存数据写到磁盘。
如机器内存16G,当RABBITMQ占用内存1.28G(16*0.4*0.2)时把内存数据放到磁盘。
二、硬盘控制
当RabbitMQ的磁盘空闲空间小于50M(默认),生产者将被BLOCK。
如果采用集群模式,磁盘节点空闲空间小于50M将导致其他节点的生产者都被block。可以通过disk_free_limit来对进行配置。
如果要从远程登录怎么做呢?处于安全考虑,guest这个默认的用户只能通过http://localhost:15672来登录,其他的IP无法直接用这个guest帐号。这里我们可以通过配置文件来实现从远程登录管理界面,只要编辑/etc/rabbitmq/rabbitmq.config文件(没有就新增),添加以下配置就可以了。
[
{rabbit,[{tcp_listeners,[5672]},{loopback_users,["mq"]}]}
].
这个操作在上面配置中都已经做过了。
6)注意事项
cookie在所有节点上必须完全一样,同步时一定要注意。
erlang是通过主机名来连接服务,必须保证各个主机名之间可以ping通。可以通过编辑/etc/hosts来手工添加主机名和IP对应关系。如果主机名ping不通,rabbitmq服务启动会失败。
如果queue是非持久化queue,则如果创建queue的那个节点失败,发送方和接收方可以创建同样的queue继续运作。但如果是持久化queue,则只能等创建queue的那个节点恢复后才能继续服务。
在集群元数据有变动的时候需要有disk node在线,但是在节点加入或退出的时候所有的disk node必须全部在线。如果没有正确退出disk node,集群会认为这个节点当掉了,在这个节点恢复之前不要加入其它节点。
RabbitMQ镜像集群配置
上述配置的RabbitMQ默认集群模式,但并不包管队列的高可用性,尽管互换机、绑定这些可以复制到集群里的任何一个节点,然则队列内容不会复制。固然该模式解决一项目组节点压力,但队列节点宕机直接导致该队列无法应用,只能守候重启,所以要想在队列节点宕机或故障也能正常应用,就要复制队列内容到集群里的每个节点,须要创建镜像队列。
镜像队列是基于普通的集群模式的,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。
我是通过上面开启的网页的管理端来设置的镜像队列,也可以通过命令,这里先说其中的网页设置方式:
1、点击admin菜单–>右侧的Policies选项–>左侧最下下边的Add/update a policy。
2、按照图中的内容根据自己的需求填写。
3、点击Add policy添加策略。
此时你就会来你的两台rabbitmq服务器的网页管理端amind菜单下看见刚才创建的队列了,下面我们来添加一个queues队列来看看效果,这里只是测试结果,其它的先不填写。
设置镜像队列策略
在任意一个节点上执行:
1 root@live-mq-01:~# rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'
将所有队列设置为镜像队列,即队列会被复制到各个节点,各个节点状态保持一直。
我们去live-mq-02上查看策略。
root@live-mq-02:~# rabbitmqctl list_policies
Listing policies...
/ha-allall^{"ha-mode":"all"}0
...done.
此时镜像集群就已经完成了,可以在任意节点上创建队列,看看其他两个节点是否会同步。