Solr集群搭建

1、Solr集群的搭建
2、把系统部署到生产环境。切换到redis集群、solr集群
3、安装mysql
4、项目部署,使用tomcat的热部署。
2 Solr 集群
2.1  什么是 SolrCloud
SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。
 SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。
它有几个特色功能:
1)集中式的配置信息
2)自动容错
3)近实时搜索
4)查询时自动负载均衡
2.1.1  zookeeper 是个什么玩意?
顾名思义zookeeper就是动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;Zookeeper:是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。
2.1.2  Zookeeper 可以干哪些事情
1 、配置管理
在我们的应用中除了代码外,还有一些就是各种配置。比如数据库连接等。一般我们都是使用配置文件的方式,在代码中引入这些配置文件。但是当我们只有一种配置,只有一台服务器,并且不经常修改的时候,使用配置文件是一个很好的做法,但是如果我们配置非常多,有很多服务器都需要这个配置,而且还可能是动态的话使用配置文件就不是个好主意了。这个时候往往需要寻找一种集中管理配置的方法,我们在这个集中的地方修改了配置,所有对这个配置感兴趣的都可以获得变更。比如我们可以把配置放在数据库里,然后所有需要配置的服务都去这个数据库读取配置。但是,因为很多服务的正常运行都非常依赖这个配置,所以需要这个集中提供配置服务的服务具备很高的可靠性。一般我们可以用一个集群来提供这个配置服务,但是用集群提升可靠性,那如何保证配置在集群中的一致性呢? 这个时候就需要使用一种实现了一致性协议的服务了。Zookeeper就是这种服务,它使用Zab这种一致性协议来提供一致性。现在有很多开源项目使用Zookeeper来维护配置,比如在HBase中,客户端就是连接一个Zookeeper,获得必要的HBase集群的配置信息,然后才可以进一步操作。还有在开源的消息队列Kafka中,也使用Zookeeper来维护broker的信息。在Alibaba开源的SOA框架Dubbo中也广泛的使用Zookeeper管理一些配置来实现服务治理。
2 、名字服务
名字服务这个就很好理解了。比如为了通过网络访问一个系统,我们得知道对方的IP地址,但是IP地址对人非常不友好,这个时候我们就需要使用域名来访问。但是计算机是不能是别域名的。怎么办呢?如果我们每台机器里都备有一份域名到IP地址的映射,这个倒是能解决一部分问题,但是如果域名对应的IP发生变化了又该怎么办呢?于是我们有了DNS这个东西。我们只需要访问一个大家熟知的(known)的点,它就会告诉你这个域名对应的IP是什么。在我们的应用中也会存在很多这类问题,特别是在我们的服务特别多的时候,如果我们在本地保存服务的地址的时候将非常不方便,但是如果我们只需要访问一个大家都熟知的访问点,这里提供统一的入口,那么维护起来将方便得多了。
3 、分布式锁
其实在第一篇文章中已经介绍了Zookeeper是一个分布式协调服务。这样我们就可以利用Zookeeper来协调多个分布式进程之间的活动。比如在一个分布式环境中,为了提高可靠性,我们的集群的每台服务器上都部署着同样的服务。但是,一件事情如果集群中的每个服务器都进行的话,那相互之间就要协调,编程起来将非常复杂。而如果我们只让一个服务进行操作,那又存在单点。通常还有一种做法就是使用分布式锁,在某个时刻只让一个服务去干活,当这台服务出问题的时候锁释放,立即fail over到另外的服务。这在很多分布式系统中都是这么做,这种设计有一个更好听的名字叫Leader Election(leader选举)。比如HBase的Master就是采用这种机制。但要注意的是分布式锁跟同一个进程的锁还是有区别的,所以使用的时候要比同一个进程里的锁更谨慎的使用。
4 、集群管理
在分布式的集群中,经常会由于各种原因,比如硬件故障,软件故障,网络问题,有些节点会进进出出。有新的节点加入进来,也有老的节点退出集群。这个时候,集群中其他机器需要感知到这种变化,然后根据这种变化做出对应的决策。比如我们是一个分布式存储系统,有一个中央控制节点负责存储的分配,当有新的存储进来的时候我们要根据现在集群目前的状态来分配存储节点。这个时候我们就需要动态感知到集群目前的状态。还有,比如一个分布式的SOA架构中,服务是一个集群提供的,当消费者访问某个服务时,就需要采用某种机制发现现在有哪些节点可以提供该服务(这也称之为服务发现,比如Alibaba开源的SOA框架Dubbo就采用了Zookeeper作为服务发现的底层机制)。还有开源的Kafka队列就采用了Zookeeper作为Cosnumer的上下线管理。
2.2  Solr 集群的结构
2.3  Solr 集群的搭建
本教程的这套安装是单机版的安装,所以采用伪集群的方式进行安装,如果是真正的生产环境,将伪集群的ip改下就可以了,步骤是一样的。
SolrCloud结构图如下:
需要三个zookeeper节点
四个solr节点。
使用伪分布式实现solr集群。需要三个zookeeper实例,4个tomcat实例,可以在一台虚拟机上模拟。 虚拟机必须得 1G 以上内存。
3 Zookeeper 集群的搭建
3.1  前提条件
三个zookeeper实例。Zookeeper也是java开发的所以需要安装jdk,  tomcat,
3.2  Jdk tomcat 安装
安装步骤略
3.3  zookeeper 的压缩包上传到服务器
3.4  解压缩
3.5  创建 solrcloud 目录
[root@localhost ~]# mkdir /usr/local/solrcloud
3.6  复制解压好的 zookeeper
复制三份zookeeper文件到这个目录下,分别创建文件夹1、2、3
[root@localhost ~]# mv zookeeper-3.4.6 /usr/local/solrcloud/zookeeper1
[root@localhost ~]# cd /usr/local/solrcloud/
[root@localhost solrcloud]# ll
total 4
drwxr-xr-x. 10 1000 1000 4096 Feb 20  2014 zookeeper1
[root@localhost solrcloud]# cp -r zookeeper1/ zookeeper2
[root@localhost solrcloud]# cp -r zookeeper1/ zookeeper3
[root@localhost solrcloud]#
配置 zookeeper
4.1  创建 data 目录
在每个zookeeper文件夹下创建一个data目录
进入到zookeeper1文件夹下创建一个目录
 
4.2  创建 myid 文件
进入到data目录
[root@localhost zookeeper1]# cd data
[root@localhost data]# echo 1 >> myid
[root@localhost data]# cat myid
1
[root@localhost data]#
在余下两个文件夹中创建两个myid文件
执行以下命令
[root@localhost data]# cd ..
[root@localhost zookeeper1]# cd ..
[root@localhost solrcloud]# mkdir zookeeper2/data
[root@localhost solrcloud]# echo 2 >> zookeeper2/data/myid
[root@localhost solrcloud]# mkdir zookeeper3/data         
[root@localhost solrcloud]# echo 3 >> zookeeper3/data/myid
4.3  复制 zoo_sample.cfg 文件
进入zookeeper的conf目录下复制zoo_sample.cfg改名字为zoo.cfg
4.4  修改 zoo.cfg 并保存
[root@localhost conf]# vim zoo.cfg
dataDir=/usr/local/solrcloud/zookeeper1/data/
server.1=192.168.1.107:2881:3881
server.2=192.168.1.107:2882:3882
server.3=192.168.1.107:2883:3883
4.5  配置 zookeeper2
[root@localhost zookeeper2]# cd conf
[root@localhost conf]# ll
[root@localhost conf]# cp zoo_sample.cfg zoo.cfg
修改zoo.cfg
4.6  配置 zookeeper3
[root@localhost solrcloud]# cd zookeeper3
[root@localhost zookeeper3]# cd conf
[root@localhost conf]# cp zoo_sample.cfg zoo.cfg
[root@localhost conf]# vim zoo.cfg
4.7  启动 zookeeper
进入zookeeper1下的bin目录下
启动命令 [root@localhost bin]# ./zkServer.sh start
停止命令:./zkServer.sh stop
查看进程:./zkServer.sh status
4.8  测试
启动其余的两个节点查看状态
[root@localhost solrcloud]# zookeeper2/bin/zkServer.sh start
查看状态
[root@localhost solrcloud]# zookeeper3/bin/zkServer.sh status
5 Solr 实例的搭建
5.1  创建 4 tomcat 实例
修改端口号8080~ 8083
5.1.1  把单机版下的 tomcat 复制到集群版的下面
[root@localhost local]# cp -r /usr/local/solr/tomcat/ /usr/local/solrcloud/tomcat1
5.1.2  修改 tomcat2 端口号
[root@localhost local]# vim /usr/local/solrcloud/tomcat2/conf/server.xml
5.1.3  修改 tomcat3 端口号
5.1.4  修改 tomcat4 端口号
5.2  创建启动和关闭 tomcat zookeeper 的脚本
5.2.1  关闭脚本
[root@localhost solrcloud]# vim shutdownall.sh
zookeeper1/bin/zkServer.sh stop
zookeeper2/bin/zkServer.sh stop
zookeeper3/bin/zkServer.sh stop
tomcat1/bin/shutdown.sh
tomcat2/bin/shutdown.sh
tomcat3/bin/shutdown.sh
tomcat4/bin/shutdown.sh
~                         
保存  :wq
授权
[root@localhost solrcloud]# chmod +x shutdownall.sh
5.2.2  启动脚本
[root@localhost solrcloud]# vim startall.sh
zookeeper1/bin/zkServer.sh start
zookeeper2/bin/zkServer.sh start
zookeeper3/bin/zkServer.sh start
tomcat1/bin/startup.sh
tomcat2/bin/startup.sh
tomcat3/bin/startup.sh
tomcat4/bin/startup.sh
保存 :wq
授权chmod +x shutdownall.sh
[root@localhost solrcloud]# chmod +x startall.sh
5.3  复制单机版的 solrhome 文件夹到集群文件夹 solrcloud
[root@localhost local]# cd solr
[root@localhost solr]# ll
total 8
drwxr-xr-x. 4 root root 4096 Oct 12 16:19 solrhome
drwxr-xr-x. 9 root root 4096 Oct 12 15:13 tomcat
[root@localhost solr]# cp -r solrhome/ ../solrcloud/solrhome1
[root@localhost solr]# cp -r solrhome/ ../solrcloud/solrhome2
[root@localhost solr]# cp -r solrhome/ ../solrcloud/solrhome3
[root@localhost solr]# cp -r solrhome/ ../solrcloud/solrhome4
5.4  修改每个 tomcat sorl 项目的 web.xml 文件
5.4.1  修改 tomcat1 下的
[root@localhost solrcloud]# vim tomcat1/webapps/solr/WEB-INF/web.xml
/usr/solrcloud/solrhome1
5.4.2  修改 tomcat2 下的
5.4.3  修改 tomcat3 下的
5.4.4  修改 tomcat4 下的
5.5  启动 tomcat
[root@localhost solrcloud]# ./startall.sh
查看tomcat启动日志
[root@localhost solrcloud]# tail -f tomcat1/logs/catalina.out  
5.6  访问主页
6 solr 集群的搭建
6.1  上传 solrhome 文件
把solrhome中的配置文件上传到zookeeper集群。使用zookeeper的客户端上传。
在sorl的解压包下:
[root@localhost cloud-scripts]# pwd
/root/solr-4.10.3/example/scripts/cloud-scripts
[root@localhost cloud-scripts]#
客户端命令位置:/root/solr-4.10.3/example/scripts/cloud-scripts
执行命令
./zkcli.sh -zkhost 192.168.1.107:2181,192.168.1.107:2182,192.168.1.107:2183 -cmd upconfig -confdir /usr/local/solrcloud/solrhome1/collection1/conf -confname myconf
6.2  检查是否上传成功
进入到zookeeper1下的文件夹看
使用.zkCli.sh这个命令看
[root@localhost bin]# ./zkCli.sh
6.3  修改 solrhome 下的 solr.xml 文件
修改solrhome下的solr.xml文件,指定当前实例运行的ip地址及端口号。
6.3.1  修改 solrhome1
[root@localhost solrcloud]# vim solrhome1/solr.xml
6.3.2  修改 solrhome2
6.3.3  修改 solrhome3
6.3.4  修改 solrhome4
6.4  修改 tomcat
修改每一台solr的tomcat 的 bin目录下catalina.sh文件中加入DzkHost指定zookeeper服务器地址: 
JAVA_OPTS="-DzkHost=172.18.11.57:2181,172.18.11.57:2182,172.18.11.57:2183"
(可以使用vim的查找功能查找到JAVA_OPTS的定义的位置,然后添加)
给每一个tomcat都得加这个配置
6.4.1  修改 Tomcat1
[root@localhost solrcloud]# vim tomcat1/bin/catalina.sh
搜索JAVA_OPTS 必须得添加到这个位置 , 因为下面的代码有用到
修改  tomcat2,tomcat3,tomcat4同上
6.5  重新启动 tomcat
一个主节点多个备份节点,集群只有一片。
6.6  创建两片 collection
创建一个两片的collection,每片是一主一备。
使用以下命令创建:
http://192.168.1.107:8080/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2
6.7  删除多余节点
删除collection1.
http://192.168.1.107:8080/solr/admin/collections?action=DELETE&name=collection1
7 Solr 集群的使用
使用solrj操作集群环境的索引库。
7.1  Solrj 测试
public class SolrCloudTest {
@Test
public void testAddDocument() throws Exception {
//创建一个和solr集群的连接
//参数就是zookeeper的地址列表,使用逗号分隔
String zkHost = "192.168.1.107:2181,192.168.1.107:2182,192.168.1.107:2183";
CloudSolrServer solrServer = new CloudSolrServer(zkHost);
//设置默认的collection
solrServer.setDefaultCollection("collection2");
//创建一个文档对象
SolrInputDocument document = new SolrInputDocument();
//向文档中添加域
document.addField("id", "test001");
document.addField("item_title", "测试商品");
//把文档添加到索引库
solrServer.add(document);
//提交
solrServer.commit();
}

@Test
public void deleteDocument() throws SolrServerException, IOException {
//创建一个和solr集群的连接
//参数就是zookeeper的地址列表,使用逗号分隔
String zkHost = "192.168.1.107:2181,192.168.1.107:2182,192.168.1.107:2183";
CloudSolrServer solrServer = new CloudSolrServer(zkHost);
//设置默认的collection
solrServer.setDefaultCollection("collection2");


solrServer.deleteByQuery("*:*");
solrServer.commit();
}
}

7.2 Solrjspring集成

修改spring的配置文件,添加集群版的配置:
<!-- 集群版 -->
<bean id="cloudSolrServer" class="org.apache.solr.client.solrj.impl.CloudSolrServer">
<constructor-arg name="zkHost" value="192.168.1.107:2181,192.168.1.107:2182,192.168.1.107:2183"></constructor-arg>
<property name="defaultCollection" value="collection2"></property>
</bean>

7.3 使用eclipse把数据导入到solr索引库

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

excellentchen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值