搭建 etcd 集群
etcd构建自身的高可用集群主要有三种形式:
- 静态配置前提是在搭建集群之前已经提前知道各节点的信息,而实际应用中可能存在预先并不知道各节点ip的情况,
- 这时可通过已经搭建的etcd来辅助搭建新的etcd集群。通过已有的etcd集群作为数据交互点,然后在扩展新的集群时
- 实现通过已有集群进行服务发现的机制。比如官方提供的:discovery.etcd.io
静态部署
主机
| ip(根据自己机器变化) |
CentOS 7 64位 | 192.168.239.131 |
CentOS 7 64位的克隆 | 192.168.239.132 |
通常都是将集群节点部署为 3 , 5 , 7 , 9 个节点,为什么不能选择偶数个节点?1. 偶数个节点集群不可用风险更高,表现在选主过程中,有较大概率或等额选票,从而触发下一轮选举。2. 偶数个节点集群在某些网络分割的场景下无法正常工作。当网络分割发生后,将集群节点对半分割开。此时集群将无法工作。按照 RAFT 协议,此时集群写操作无法使得大多数节点同意,从而导致写失败,集群无法正常工作
2380 是给集群里的成员进行交流,并监听是否有节点加入或者退出
2379 是给客户端使用的,或者说是对外提供的
##########################################################
###### 请根据各节点实际情况修改配置:1/3/4/5/6/7 ######
##########################################################[Member]
#1.节点名称,必须唯一
ETCD_NAME="etcd01"
#2.设置数据保存的目录
ETCD_DATA_DIR="/var/lib/etcd"
#3.用于监听其他etcd member的url
ETCD_LISTEN_PEER_URLS="http://192.168.239.131:2380"
#4.该节点对外提供服务的地址
ETCD_LISTEN_CLIENT_URLS="http://192.168.239.131:2379,http://127.0.0.1:2379"#[Clustering]
#1.对外公告的该节点客户端监听地址
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.239.131:2379"
#2.该节点成员对等URL地址,且会通告集群的其余成员节点
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.239.131:2380"
#3.集群中所有节点的信息
ETCD_INITIAL_CLUSTER="etcd01=http://192.168.239.131:2380,etcd02=http://192.168.239.132:2380"
#4.创建集群的token,这个值每个集群保持唯一
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
#5.初始集群状态,新建集群的时候,这个值为new;exixtsing
ETCD_INITIAL_CLUSTER_STATE="new"
#6.flannel操作etcd使用的是v2的API,而kubernetes操作etcd使用的v3的API
#为了兼容flannel,将默认开启v2版本,故配置文件中设置
ETCD_ENABLE_V2="true"
#5.初始集群状态,新建集群的时候,这个值为new;
ETCD_INITIAL_CLUSTER_STATE="new"#5.初始集群状态,进入集群的时候,这个值为exixtsing;
ETCD_INITIAL_CLUSTER_STATE="exixtsing"
cd /var/lib/etcd && rm -rf *
为节点etcd01创建一个etcd服务
#
[Unit]
Description=Etcd Server
Documentation=https://github.com/etcd-io/etcd
After=network.target[Service]
User=root
Type=notify
## 根据实际情况修改EnvironmentFile和ExecStart这两个参数值
## 1.EnvironmentFile即配置文件的位置,注意“-”不能少
EnvironmentFile=-/etc/etcd/etcd.conf
## 2.ExecStart即etcd启动程序位置
ExecStart=/usr/local/bin/etcd
Restart=always
RestartSec=10s
LimitNOFILE=65536[Install]
WantedBy=multi-user.target
firewall - cmd -- zone = public -- add - port = 2379 / tcp -- permanentfirewall - cmd -- zone = public -- add - port = 2380 / tcp -- permanentfirewall - cmd -- reloadfirewall - cmd -- list - port
后续做完上述操作后,先启动etcd02 的服务器,不然etcd01 可能会启动不了
在132 服务器中存入一个值
在131 中查看这个值,如果查的到,就是表面搭成集群了
- systemctl daemon-reload 刷新etcd的配置
- systemctl enable etcd 设置自etcd自启
- systemctl start etcd 启动etcd
- systemctl status etcd 查看etcd 的状态
- systemctl stop etcd 停止etcd 的运行
- systemctl restart etcd 重启etcd
集群测试
etcdctl member list -w table 查看集群里的成员以表格方式展现出来