目录
2、编辑etcd.conf文件,添加集群信息注意修改对应的ip
3、修改/etc/etcd/etcd.conf文件后,要先删除/var/lib/etcd目录下保存的数据,再重新启用服务,不然失败
4、为节点etcd01创建一个etcd服务 /etc/systemd/system/etcd.service
1、各节点重启启动完成后,在任意节点执行etcdctl member list可列所有集群节点信息
一、etcd集群搭建
一、etcd构建自身高可用集群的几种形式
1、静态发现:
预先已知etcd集群中有哪些节点,在启动时通过--initial-cluster参数直接指定好etcd的各个节点地址
2、etcd动态发现
静态配置前提是在搭建集群之前已经提前知道各节点的信息,而实际应用中可能存在预先并不知道各节点ip的情况,
这时可通过已经搭建的etcd来辅助搭建新的etcd集群。通过已有的etcd集群作为数据交互点,然后在扩展新的集群时实现通过已有集群进行服务发现的机制。比如官方提供的:discovery.etcd.io
3、DNS动态发现
通过DNS查询方式获取其他节点地址信息
二、静态部署
以下为2台主机信息(需要打开虚拟机,请根据自己电脑配置量力而行)
主机 | ip(根据自己机器变化) |
192.168.86.131 | 192.168.86.131 |
192.168.86.132 | 192.168.86.132 |
注意:
通常都是将集群节点部署为3,5,7,9个节点,为什么不能选择偶数个节点?
1.偶数个节点集群不可用风险更高,表现在选主过程中,有较大概率或等额选票,从而触发下一轮选举。
2.偶数个节点集群在某些网络分割的场景下无法正常工作。当网络分割发生后,将集群节点对半分割开。
此时集群将无法工作。按照RAFT协议,此时集群写操作无法使得大多数节点同意,从而导致写失败,集群无法正常工作
请确保两台主机中都已经安装好了 etcd 服务并能正常启动
我这里新开了一台虚拟机,所以要讲dokcer服务以及etcd服务进行安装
安装之后就是启动etcd服务了
三、集群搭建
1、安装服务
在新的虚拟机上安装docker
2、编辑etcd.conf文件,添加集群信息注意修改对应的ip
第一台虚拟机:192.168.86.131,将一下代码写入此文件中:
#########################################################
###### 请根据各节点实际情况修改配置:1/3/4/5/6/7 ######
#########################################################
#[Member]
#1.节点名称,必须唯一
ETCD_NAME="etcd01"#2.设置数据保存的目录
ETCD_DATA_DIR="/var/lib/etcd"#3.用于监听其他etcd member的url
ETCD_LISTEN_PEER_URLS="http://192.168.86.131:2380"#4.该节点对外提供服务的地址
ETCD_LISTEN_CLIENT_URLS="http://192.168.86.131:2379,http://127.0.0.1:2379"#[Clustering]
#5.对外公告的该节点客户端监听地址
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.86.131:2379"#6.该节点成员对等URL地址,且会通告集群的其余成员节点
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.86.131:2380"#7.集群中所有节点的信息
ETCD_INITIAL_CLUSTER="etcd01=http://192.168.86.131:2380,(注意这是第一台虚拟机的地址,是不变的)etcd02=http://192.168.86.132:2380"(注意这是第二台虚拟机的地址,是不变的)
#8.创建集群的token,这个值每个集群保持唯一
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"#9.初始集群状态,新建集群的时候,这个值为new;
ETCD_INITIAL_CLUSTER_STATE="new"#10.flannel操作etcd使用的是v2的API,而kubernetes操作etcd使用的v3的API
# 为了兼容flannel,将默认开启v2版本,故配置文件中设置
ETCD_ENABLE_V2="true"
3、修改/etc/etcd/etcd.conf文件后,要先删除/var/lib/etcd目录下保存的数据,再重新启用服务,不然失败
cd /var/lib/etcd && rm -rf *
4、为节点etcd01创建一个etcd服务 /etc/systemd/system/etcd.service
etcd.service:
[Unit]
Description=Etcd Server
Documentation=https://github.com/etcd-io/etcd
After=network.target[Service]
User=root
Type=notify
## 根据实际情况修改EnvironmentFile和ExecStart这两个参数值
## 1.EnvironmentFile即配置文件的位置,注意“-”不能少
EnvironmentFile=-/etc/etcd/etcd.conf
## 2.ExecStart即etcd启动程序位置
ExecStart=/usr/local/bin/etcd
Restart=always
RestartSec=10s
LimitNOFILE=65536[Install]
WantedBy=multi-user.target
5、因为需要跨主机通信,需要开放防火墙端口
firewall-cmd --zone=public --add-port=2379/tcp --permanent
firewall-cmd --zone=public --add-port=2380/tcp --permanent
firewall-cmd --reload
firewall-cmd --list-port
注意:启动可能报错信息
master-16 etcd[25461]: request cluster ID mismatch (got bdd7c7c32bde1208 want 698851d67fea3c17)
原因 集群ip地址变化后,除了修改/etc/etcd/etcd.conf 文件并重新启用服务外,还需要删除/var/lib/etcd目录下保存的数据
解决办法 删除了etcd集群所有节点中的--data_dir的内容
服务相关指令:
systemctl daemon-reload 刷新服务
systemctl enable etcd 开机自启
systemctl start etcd 开启etcd服务
systemctl status etcd 查看etcd服务状态
systemctl stop etcd 停止etcd服务
systemctl restart etcd 重启etcd服务
第二台服务也是按如上操作执行,但是要将etcd.conf文件中的内容更改一下
#########################################################
###### 请根据各节点实际情况修改配置:1/3/4/5/6/7 ######
#########################################################
#[Member]
#1.节点名称,必须唯一
ETCD_NAME="etcd02"#2.设置数据保存的目录
ETCD_DATA_DIR="/var/lib/etcd"#3.用于监听其他etcd member的url
ETCD_LISTEN_PEER_URLS="http://192.168.86.132:2380"#4.该节点对外提供服务的地址
ETCD_LISTEN_CLIENT_URLS="http://192.168.86.132:2379,http://127.0.0.1:2379"#[Clustering]
#5.对外公告的该节点客户端监听地址
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.86.132:2379"#6.该节点成员对等URL地址,且会通告集群的其余成员节点
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.86.132:2380"#7.集群中所有节点的信息
ETCD_INITIAL_CLUSTER="etcd01=http://192.168.86.132:2380,etcd02=http://192.168.86.131:2380"
#8.创建集群的token,这个值每个集群保持唯一
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"#9.初始集群状态,新建集群的时候,这个值为new;
ETCD_INITIAL_CLUSTER_STATE="new"#10.flannel操作etcd使用的是v2的API,而kubernetes操作etcd使用的v3的API
# 为了兼容flannel,将默认开启v2版本,故配置文件中设置
ETCD_ENABLE_V2="true"
四、集群测试
1、各节点重启启动完成后,在任意节点执行etcdctl member list可列所有集群节点信息
etcdctl member list 案例列表
etcdctl member list -w table 查看集群中的服务
etcdctl endpoint health 查看服务的健康
etcdctl endpoint status 查看服务状态
etcdctl member list 案例列表
每次改变配置文件后,记得刷新服务systemctl daemon-reload
etcdctl member list -w table 查看集群中的服务
2、 进行连接测试
192.168.86.131:
开启成功:
192.168.86.132:
开启成功:
两台服务连接成功:
3、 其他命名
http命令:
1、etcdctl --endpoints=http://192.168.199.160:2379,
http://192.168.199.157:2379,
http://192.168.199.158:2379
endpoint health/ 查看多个服务健康
2、etcdctl --endpoints=http://192.168.27.120:2379 endpoint health 查看一个服务健康
3、etcdctl --endpoints=http://192.168.27.129:2379 member list -w table 查看与该地址连接服务的列表
etcdctl --endpoints=http://192.168.86.131:2379 endpoint health 查看http://192.168.86.131:2379健康
查询结果为健康:
etcdctl --endpoints=http://192.168.86.132:2379 endpoint health 查看http://192.168.86.131:2379健康
查询结果为健康:
注意:是在自己服务里面查询其他服务健康,而不是在自己服务中查看自己服务健康
今天的知识就分享到这了,希望能够帮助到你!