Elasticsearch单机版安装:https://www.cnblogs.com/biehongli/p/11643482.html
1、Elasticsearch集群版安装,这里进行模拟,是伪集群版的安装,我使用一台机器,通过修改端口号的方式进行伪集群的搭建。
注意:由于单机版的安装过程中出现了各种错误,所以集群版我是直接复制修改好的单机版的(注意:home/hadoop/soft/el_slave/elasticsearch-5.4.3-slaver1/data里面有一个nodes文件夹,将该文件夹删除即可,下面也会提及)。我没有再次通过解压缩安装包的方式,因为单机版报了不少错误,所以用解决完错误的更快些。
Elasticsearch集群版的搭建,是一主二从的方式,即一个master主节点,两个slaver从节点。(备注,我第一次搭建的作为了主节点了,请自行脑补)。
我这里先创建一个el_slave文件夹,然后将第一次单机版的Elasticsearch复制两份,备用。
1 [elsearch@slaver4 soft]$ mkdir el_slave
2 [elsearch@slaver4 soft]$ ls
3 elasticsearch-5.4.3 elasticsearch-head-master el_slave node-v8.16.2-linux-x64
4 [elsearch@slaver4 soft]$ cp -r elasticsearch-5.4.3/ el_slave/
5 [elsearch@slaver4 soft]$ ls
6 elasticsearch-5.4.3 elasticsearch-head-master el_slave node-v8.16.2-linux-x64
7 [elsearch@slaver4 soft]$ cd el_slave/
8 [elsearch@slaver4 el_slave]$ ls
9 elasticsearch-5.4.3
10 [elsearch@slaver4 el_slave]$ mv elasticsearch-5.4.3/ elasticsearch-5.4.3-slaver1
11 [elsearch@slaver4 el_slave]$ cp -r elasticsearch-5.4.3-slaver1/ elasticsearch-5.4.3-slaver2
12 [elsearch@slaver4 el_slave]$ ls
13 elasticsearch-5.4.3-slaver1 elasticsearch-5.4.3-slaver2
14 [elsearch@slaver4 el_slave]$
2、开始zao起来,修改主节点的配置文件/home/hadoop/soft/elasticsearch-5.4.3/config/elasticsearch.yml。添加如下所示的内容。
1 # 指定集群的名称
2 cluster.name: biehl01
3 # 给master起一个名称,叫master
4 node.name: master
5 # 告诉此节点,它就是master
6 node.master: true
7 # 绑定的ip地址和默认端口号9200
8 network.host: 192.168.110.133
操作如下所示:
![](https://i-blog.csdnimg.cn/blog_migrate/53a2acadc3411a7d7f29225e62b7395f.png)
修改主节点配置文件,以后重启一下elasticsearch,查看效果,如下所示:
![](https://i-blog.csdnimg.cn/blog_migrate/df2759a1bb29147002dcfefc5f52d585.png)
3、主节点修改,完毕开始修改从节点的配置文件,修改内容如下所示:
1 # 从节点cluster.name要和master主节点的名称要保持一致
2 cluster.name: biehl01
3 # 从节点起一个名称
4 node.name: slave1
5 # 绑定的ip地址
6 network.host: 192.168.110.133
7 # 修改默认的端口号,默认9200
8 http.port: 8200
9
10 # 找到master主节点
11 discovery.zen.ping.unicast.hosts: ["192.168.110.133"]
从节点一配置如下所示:
![](https://i-blog.csdnimg.cn/blog_migrate/10f16b896629032acd51022cafeb67bf.png)
从节点二配置文件里面添加如下所示内容:
1 # 从节点cluster.name要和master主节点的名称要保持一致
2 cluster.name: biehl01
3 # # 从节点起一个名称
4 node.name: slave2
5 # # 绑定的ip地址
6 network.host: 192.168.110.133
7 # # 修改默认的端口号,默认9200
8 http.port: 7200
9 #
10 # # 找到master主节点,discovery.zen.minimum_master_nodes的值计算是节点总数/2 + 1(三个节点就是写2即可)
11 # discovery.zen.minimum_master_nodes: 2
12 discovery.zen.ping.unicast.hosts: ["192.168.110.133"]
从节点二配置如下所示:
![](https://i-blog.csdnimg.cn/blog_migrate/62e97786ba1489371d9a3a47c891478f.png)
修改完毕,主节点,从节点一二,开始启动,三个节点,发现自己有点单蠢了呢。开始三个节点后台启动,使用jps显示三个进程,但是界面就是显示不了从节点一二,主要造成这个的原因是我复制了主节点,然后分析一下原因,我前台启动,发现报错了,错误如下所示:
1 # 主节点的报错
2 [master] failed to send join request to master [{slave1}{rYUCm8sMRzaXu84zRj3duQ}{qL5ICfOKQKyDTaRytL5vGg}{
192.168.110.133}{
192.168.110.133:9301}], reason [RemoteTransportException[[slave1][192.168.110.133:9301][internal:discovery/zen/join]]; nested: NotMasterException[Node [{slave1}{rYUCm8sMRzaXu84zRj3duQ}{qL5ICfOKQKyDTaRytL5vGg}{
192.168.110.133}{
192.168.110.133:9301}] not master for join request]; ], tried [3] times
3
4 # 从节点的报错
5 [slave1] failed to send join request to master [{slave2}{rYUCm8sMRzaXu84zRj3duQ}{jY1TxxwdSkaZkQqdsNTGaQ}{
192.168