ActiveMQ的集群方案(一)

集群的两种方式:

Master slave 

Broker clusters

其中Master+slave主备方案中,又分为每个节点独立存储数据与共享存储数据,由于独立存储数据在实际项目中应用较少,当前想不讨论。

1.Master slave 

这种方案的结构图大致如下:

2n+1个节点贡献一个文件系统,ActiveMQ用的较为多的是LevelDB。

其次LevelDB的搭建依赖于Zookeeper,所以先搭建Zookeeper

1.1 Zookeeper集群的搭建

主机名ip
m1192.168.13.11
m2192.168.13.12
m3192.168.13.13


1.先从官网下载Zookeeper的安装包 点击打开链接

2.然后解压到任意路径下【我用的是centos 6.8版本,而且比较喜欢将常用软件放到/usr/local/ 下】
/usr/local/zookeeper-3.4.9

3.将/usr/local/zookeeper-3.4.9 /conf/zoo_sample.cfg改名为zoo.cfg,并且添加如下配置


此处的m1 m2 m3 为我在/etc/hosts下面配置的各个主机ip地址的主机名
4.在zookeeper的目录下新建一个data文件夹,并新建一个myid文件,内容为当前机子的id,与上图中server.X的X对应。
5 在其余两天机子上重复上面的配置,并启动 [zkServer.sh start],则可完成zookeeper最简单集群创建。


1.2 ActiveMQ主从搭建

1.在官网下载最新版的ActiveMQ,我写博客时的最新稳定版为5.14.3

2.然后解压到/usr/local/下,配置conf/activemq.xml
由于当前配置的时主从,所以当前集群内节点的brokerName都要相同

配置文件系统


以上的配置在三个节点上几乎一样,唯一要改的就是hostname为当前节点的主机名。
3.启动三个节点,并用程序测试
生产者:
import javax.jms.Connection;
import javax.jms.ConnectionFactory;
import javax.jms.DeliveryMode;
import javax.jms.Destination;
import javax.jms.MessageProducer;
import javax.jms.Session;
import javax.jms.TextMessage;

import org.apache.activemq.ActiveMQConnectionFactory;

public class Sender {
	
	public static void main(String[] args) {
		try {
			//第一步:建立ConnectionFactory工厂对象,需要填入用户名、密码、以及要连接的地址,均使用默认即可,默认端口为"tcp://localhost:61616"
			ConnectionFactory connectionFactory = new ActiveMQConnectionFactory(
					ActiveMQConnectionFactory.DEFAULT_USER, 
					ActiveMQConnectionFactory.DEFAULT_PASSWORD, 
					"failover:(tcp://192.168.13.11:61616,tcp://192.168.13.12:61616,tcp://192.168.13.13:61616)?Randomize=false");
			
			//第二步:通过ConnectionFactory工厂对象我们创建一个Connection连接,并且调用Connection的start方法开启连接,Connection默认是关闭的。
			Connection connection = connectionFactory.createConnection();
			connection.start();
			
			//第三步:通过Connection对象创建Session会话(上下文环境对象),用于接收消息,参数配置1为是否启用是事务,参数配置2为签收模式,一般我们设置自动签收。
			Session session = connection.createSession(Boolean.FALSE, Session.AUTO_ACKNOWLEDGE);
			
			//第四步:通过Session创建Destination对象,指的是一个客户端用来指定生产消息目标和消费消息来源的对象,在PTP模式中,Destination被称作Queue即队列;在Pub/Sub模式,Destination被称作Topic即主题。在程序中可以使用多个Queue和Topic。
			Destination destination = session.createQueue("first");
			
			//第五步:我们需要通过Session对象创建消息的发送和接收对象(生产者和消费者)MessageProducer/MessageConsumer。
			MessageProducer producer = session.createProducer(null);
			
			//第六步:我们可以使用MessageProducer的setDeliveryMode方法为其设置持久化特性和非持久化特性(DeliveryMode),我们稍后详细介绍。
			//producer.setDeliveryMode(DeliveryMode.NON_PERSISTENT);
			
			//第七步:最后我们使用JMS规范的TextMessage形式创建数据(通过Session对象),并用MessageProducer的send方法发送数据。同理客户端使用receive方法进行接收数据。最后不要忘记关闭Connection连接。
			
			for(int i = 0 ; i < 500000 ; i ++){
				TextMessage msg = session.createTextMessage("我是消息内容" + i);
				// 第一个参数目标地址
				// 第二个参数 具体的数据信息
				// 第三个参数 传送数据的模式
				// 第四个参数 优先级
				// 第五个参数 消息的过期时间
				producer.send(destination, msg, DeliveryMode.NON_PERSISTENT, 0 , 1000L);
				System.out.println("发送消息:" + msg.getText());
				Thread.sleep(1000);
				
			}

			if(connection != null){
				connection.close();
			}			
		} catch (Exception e) {
			e.printStackTrace();
		}
		
	}
}

消费者:
import javax.jms.Connection;
import javax.jms.ConnectionFactory;
import javax.jms.Destination;
import javax.jms.MapMessage;
import javax.jms.Message;
import javax.jms.MessageConsumer;
import javax.jms.Session;
import javax.jms.TextMessage;

import org.apache.activemq.ActiveMQConnectionFactory;

public class Receiver {

	public static void main(String[] args)  {
		try {
			//第一步:建立ConnectionFactory工厂对象,需要填入用户名、密码、以及要连接的地址,均使用默认即可,默认端口为"tcp://localhost:61616"
			ConnectionFactory connectionFactory = new ActiveMQConnectionFactory(
					ActiveMQConnectionFactory.DEFAULT_USER, 
					ActiveMQConnectionFactory.DEFAULT_PASSWORD, 
					"failover:(tcp://192.168.13.11:61616,tcp://192.168.13.12:61616,tcp://192.168.13.13:61616)?Randomize=false");
			
			//第二步:通过ConnectionFactory工厂对象我们创建一个Connection连接,并且调用Connection的start方法开启连接,Connection默认是关闭的。
			Connection connection = connectionFactory.createConnection();
			connection.start();
			
			//第三步:通过Connection对象创建Session会话(上下文环境对象),用于接收消息,参数配置1为是否启用是事务,参数配置2为签收模式,一般我们设置自动签收。
			Session session = connection.createSession(Boolean.FALSE, Session.AUTO_ACKNOWLEDGE);
			
			//第四步:通过Session创建Destination对象,指的是一个客户端用来指定生产消息目标和消费消息来源的对象,在PTP模式中,Destination被称作Queue即队列;在Pub/Sub模式,Destination被称作Topic即主题。在程序中可以使用多个Queue和Topic。
			Destination destination = session.createQueue("first");
			//第五步:通过Session创建MessageConsumer
			MessageConsumer consumer = session.createConsumer(destination);
			
			while(true){
				TextMessage msg = (TextMessage)consumer.receive();
				if(msg == null) break;
				System.out.println("收到的内容:" + msg.getText());
			}			
		} catch (Exception e) {
			e.printStackTrace();
		}

		
		
		
	}
}

当前的场景下,可以测试高可用,在程序运行时,将一个节点关掉,系统依旧可以正常运行。

当前的缺点也比较明显,在生产环境中,需要6台机子,暂且不提zookeeper,activeMQ的三个节点只能有一个提供服务,其余两个只能等到主节点挂了才会顶上来,多少有点大材小用。而且据我测试,原来单节点并实用kahadb的情况下美妙7k的写入量是没问题的,但是当前场景秒级写入500多就到顶了。


2 Broker clusters

这种集群配置不需要zookeeper的帮助,也不需要更改文件系统,只需要实用自带的kahadb,因此写入性能也是最强的,但是会有一些缺点。
从最简单的例子入手,先用两个节点演示

在node1上【192.168.13.11】的activemq..xml中的borker下配置
<networkConnectors>
<networkConnector uri="static:(tcp://192.168.13.12:61616)"
 duplex="false"/>
</networkConnectors>

在node2上【192.168.13.12】的activemq..xml中的borker下配置
<networkConnectors>
<networkConnector uri="static:(tcp://192.168.13.11:61616)"
 duplex="false"/>
</networkConnectors>
注意两个node的brokerName也要改成不同的。
最后启动两台activeMq。

程序测试中的url改为:
"failover:(tcp://192.168.13.11:61616,tcp://192.168.13.12:61616,)?Randomize=false"

经过我的测试,会有一点问题。比如现在producer再向11发数据,一秒发了100条,但是下一秒11节点挂掉了,producer会跳转到12节点继续发。如果上一秒发送到11节点的数据还没来得及被消费掉,就必须等到11节点故障回复后才可以继续消费。倘若11节点不能回复,那100条数据就没了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值