solrcloud集群版的搭建

说在前面的话

之前我们了解到了solr的搭建,我们的solr是搭建在tomcat上面的,由于tomcat并不能过多的承受访问的压力,因此就带来了solrcloud的时代。也就是solr集群。
本次配置solrCloud需要的环境:
配置好的单机solr(更方便)
已安装jdk的linux服务器一台
下载链接

一、什么是SolrCloud

SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。
SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。
它有几个特色功能:
1)集中式的配置信息
2)自动容错
3)近实时搜索
4)查询时自动负载均衡
框架结构
结构解析:
从物理结构上解析:
配置一个SolrCloud集群(实际上就是多个solr),图上是3个solr服务器,然后每个solr服务里面都有一个core(就是collection1(默认)、collection2、),我们用它去存放一部分数据(也就是把数据分片),此时我们不把它叫做collection,而叫做core,因为collection一般表示总的索引库。而我们在里面存放的是部分数据。因此为了不让我们概念混淆,起名为core,(在单机版因为一个collection就是i一个索引库,所以就很正常了)。三个solr服务,每个服务上有2个core,因此一共有6个core。
从逻辑结构解析:
一个大大的索引库,也就是一个大的collection。我们把其中的数据分成2片,分为起名为:shard1、shard2。其中的数据不同。每一个shard有三个core,这三个core实现了一主两备,数据都是一样的。充分的解决了高并发的问题

上图解析完了,那么我们再来看看词汇解释:
物理结构
三个Solr实例( 每个实例包括两个Core),组成一个SolrCloud。

逻辑结构
索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个Core的索引数据一致,解决高可用问题。
用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。

collection
Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它常常被划分为一个或多个Shard(分片),它们使用相同的配置信息。
比如:针对商品信息搜索可以创建一个collection。
collection=shard1+shard2+…+shardX

Core
每个Core是Solr中一个独立运行单位,提供 索引和搜索服务。一个shard需要由一个Core或多个Core组成。由于collection由多个shard组成所以collection一般由多个core组成。
Master或Slave
Master是master-slave结构中的主结点(通常说主服务器),Slave是master-slave结构中的从结点(通常说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。
Shard
Collection的逻辑分片。每个Shard被化成一个或者多个replication,通过选举确定哪个是Leader。
看完上面的结构图了之后,自己的心中是不是有点收获呢,那么我们再来看看项目中的架构图吧。希望大家看图之后就能明白其中的原理
在这里插入图片描述
正如上面所说,我们不可能直接与solrcloud相连接,必须通过一个桥梁去管理他。这里我们用的是zookeeper,对于zookeeper,我们大家可能都不陌生了,因为我们在说dubbo的时候,zookeeper当时在dubbo作为注册中心,那时候我们就了解了一下他的搭建和应用。**这里我们主要是利用zookeeper管理我们solr的集群。**那时候我们用的是单机版,这里呢我们的solr服务都用集群版了,万一zookeeper挂了,那不也没用了么?因此我们这里把zookeeper也搭建成集群版。
估计小伙伴们都看出来了,此时我们需要7台服务器,4台服务器安装solr,3台安装zookeeper,充分的解决高并发的问题。
我们把索引库分成两片,然后每片对应着两台solr服务器。实现了一主一备。

二、搭建SolrCloud

正如小伙伴们看到需要7台服务器,可是我们没有7台服务器怎么办呢,有的小伙伴说用虚拟机。好,行我们用7台虚拟机,行了,那你搭建吧。我电脑配置不行,运行不了7台、、、
所以就搭建一台伪服务器,把所有的zookeeper和solr都搭建到一台服务器上,利用端口的不同进行通信连接。

a、搭建zookeeper集群

首先我们需要先搭建zookeeper集群,我们先把zookeeper上传到服务器上。
Zookeeper作为集群的管理工具。
1、集群管理:容错、负载均衡。
2、配置文件的集中管理
3、集群的入口
需要实现zookeeper 高可用。需要搭建集群。建议是奇数节点。需要三个zookeeper服务器。
因为zookeeper是利用投票选举的方式选择leader和

第一步:需要安装jdk环境。
在这里插入图片描述
第二步:把zookeeper的压缩包上传到服务器。
第三步:解压缩。
第四步:把zookeeper复制三份。
[root@localhost ~]# mkdir /usr/local/solr-cloud
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/solrcloud/zookeeper01
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/solrcloud/zookeeper02
[root@localhost ~]# cp -r zookeeper-3.4.6 /usr/local/solrcloud/zookeeper03
在这里插入图片描述
第五步:在每个zookeeper目录下创建一个data目录。
第六步:在data目录下创建一个myid文件,文件名就叫做“myid”。内容就是每个实例的id。例如1、2、3
[root@localhost data]# echo 1 >> myid
[root@localhost data]# ll
total 4
-rw-r–r--. 1 root root 2 Apr 7 18:23 myid
[root@localhost data]# cat myid
在这里插入图片描述
第七步:修改配置文件。把conf目录下的zoo_sample.cfg文件改名为zoo.cfg

1、datadir=你设置的myid所在的文件夹
2、端口号修改(伪分布式才需要改)
3、集群的ip地址
server.1=192.168.25.111:2881:3881
server.2=192.168.25.111:2882:3882
server.3=192.168.25.111:2883:3883
:2881代表投票发送信息的.
:3881代表投票接收信息的.
vim zoo.conf(1)2182,
vim zoo.conf(2)2183,
vim zoo.conf(3)2184,
在这里插入图片描述


第八步:启动每个zookeeper实例。
启动bin/zkServer.sh start
可以使用 批处理文件开启zookeeper

cd zookeeper01/bin/
./zkServer.sh start
cd ../..
cd zookeeper02/bin/
./zkServer.sh start
cd ../..
cd zookeeper03/bin/
./zkServer.sh start
cd ../..

在这里插入图片描述
在这里插入图片描述
查看zookeeper的状态:
bin/zkServer.sh status
在这里插入图片描述

三、Solr集群的搭建

第一步:创建四个tomcat实例。每个tomcat运行在不同的端口。
配置tomcat的端口号8180、8280、8380、8480
在这里插入图片描述
在这里插入图片描述
启动端口 8081 8082 8083 8084

第二步:部署solr的war包。把单机版的solr工程复制到集群中的tomcat中。
在这里插入图片描述
第三步:为每个solr实例创建一个对应的solrhome。使用单机版的solrhome复制四份。
在这里插入图片描述
第四步:需要修改solr的web.xml文件。把solrhome关联起来。
在这里插入图片描述
在这里插入图片描述
第五步:配置solrCloud相关的配置。每个solrhome下都有一个solr.xml,把其中的ip及端口号配置好。
在这里插入图片描述
在这里插入图片描述
第六步:修改tomcat/bin目录下的catalina.sh 文件,关联solr和zookeeper。
把此配置添加到配置文件中:
2182 8183 8184是zookeeper的配置文件zoo.conf里面配置的。表示连接zookeeper的端口号

JAVA_OPTS="-DzkHost=192.168.25.111:2182,192.168.25.111:2183,192.168.25.111:2184"

在这里插入图片描述
在这里插入图片描述

第七步:让zookeeper统一管理配置文件。需要把solrhome/collection1/conf目录上传到zookeeper。上传任意solrhome中的配置文件即可。
使用工具上传配置文件:/root/solr-4.10.3/example/scripts/cloud-scripts/zkcli.sh
在这里插入图片描述

   ./zkcli.sh -zkhost 192.168.25.111:2182,192.168.25.111:2183,192.168.25.111:2184 -cmd upconfig -confdir /usr/local/solrcloud/solrhome01/collection1/conf -confname myconf

在这里插入图片描述
查看zookeeper上的配置文件:
使用zookeeper目录下的bin/zkCli.sh命令查看zookeeper上的配置文件:
在这里插入图片描述
[root@localhost bin]#
使用以下命令连接指定的zookeeper服务:
./zkCli.sh -server 192.168.25.111:2183
在这里插入图片描述
在这里插入图片描述
如上图,把solrhome中的collection1里的conf上传到zookeeper中了

第八步:启动每个tomcat实例。要包装zookeeper集群是启动状态。
使用批处理文件启动每一个tomcat实例。

cd tomcat8081/bin/
./startup.sh
cd ../..
cd tomcat8082/bin/
./startup.sh
cd ../..
cd tomcat8083/bin/
./startup.sh
cd ../..
cd tomcat8084/bin/
./startup.sh
cd ../..

在这里插入图片描述
第九步:访问集群
192.168.25.111:8081/solr
在这里插入图片描述
刚搭建好的collection索引库是一片,也就是一主三备
在这里插入图片描述
然后我们通过在浏览器上输入URL地址进行创建新的索引库(符合我们项目要求的.)
创建新的Collection进行分片处理
http://192.168.25.111:8081/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2
删除不用的Collection。
http://192.168.25.111:8081/solr/admin/collections?action=DELETE&name=collection1
我们先把collection1删除,然后再添加新的索引库collection1.
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
到这里我们的solr集群版就搭建完成了.
本文讲解的很详细,希望可以给您带来不同之处,如果您有问题,欢迎下方评论,博主看到后会第一时间回复大家.

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值