1.1 选择集群类型:
因为本例主要用于测试,所以选择一主多从,由于本人比较懒,所以就只用一个node节点。
*一主多从:一个Master节点和若干个Node节点,搭建简单,适合用于做测试用例。
*多主多从:多台Master和多台Node节点,搭建麻烦,安全性高,适合用于生产环境。
1.2 设备要求
主机 | IP地址 | 操作系统 | 配置 |
Master | 10.133.101.120 | CentOS7.5+ | 2核CPU,2G内存,20+G硬盘 |
Node1 | 10.133.101.119 | CentOS7.5+ | 2核CPU,2G内存,20+G硬盘 |
1.3 网络连接模式选择桥接模式
2.1 环境搭建
2.1.1关闭防火墙,禁止开机自启动
systemctl stop firewalld
systemctl disable firewalld
2.1.2 更改主机名
master节点(10.133.101.120)
hostnamectl set-hostname k8s-master
Node1节点(10.133.101.119)
hostnamectl set-hostname k8s-node1
然后
reboot
*节点的IP用ip addr命令查询,或者ifconfig,但如果使用的是命令行版本的centos,要先下载net-tools:
yum -y install net-tools
然后再输入ifconfig就可以查询虚拟机ip了。
*建议查完ip写在草稿纸上,或者拿个便利贴写在上面然后贴电脑屏上,毕竟用过纯命令行版本的都知道操作不那么方便。
2.1.3 主机名解析
为了方便后面集群节点间的直接调用,每个节点机器都需要配置一下:
cat >> /etc/hosts << EOF
10.133.101.120 k8s-master
10.133.101.119 k8s-node1
EOF
2.1.4 同步时间
集群中的节点时间必须一致,每个节点都要设置:
yum install ntpdate -y
ntpdate time.windows.com
2.1.5 关闭selinux和swap
可以通过getenforce命令来查看selinux状态
getenforce
永久关闭selinux,需要重启:
sed -i 's/enforcing/disabled/' /etc/selinux/config
永久关闭swap分区,需要重启:
sed -ri 's/.*swap.*/#&/' /etc/fstab
2.1.6 将桥接的IPv4流量传递到iptables的链
每个节点机器都要配置:
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
EOF
加载br_netfilter模块 :
modprobe br_netfilter
查看加载状态:
lsmod | grep br_netfilter
使其生效:
# 生效
sysctl --system
2.1.7 开启ipvs
在每个节点安装ipset和ipvsadm:
yum -y install ipset ipvsadm
在所有节点执行如下脚本:
cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
授权、运行、查看加载状态:
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
#重启
reboot
2.2.1 安装docker
不搞乱七八糟的,直接yum下载...
yum -y install docker
#瞄一眼版本
docker version
然后启动docker:
systemctl enable docker && systemctl start docker
设置Docker镜像加速器:
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors":["https://70m69v2z.mirror.aliyuncs.com"]
}
EOF
*daemon文件有缩进,但一定不能有空格!
*"registry-mirrors":["https://xxxxxxxx.mirror.aliyuncs.com"]
xxxxxxxx这个内容自己去阿里云找一下,别抄别人的,方法扔下面了
(74条消息) docker配置阿里云镜像加速(官方指南)_王钧石的技术博客的博客-CSDN博客_docker 阿里云镜像加速
重新加载一下
sudo systemctl daemon-reload
再重启一下docker
sudo systemctl restart docker
2.2.2 配置阿里云的yum源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
2.2.3 安装三个包:kubeadm,kubelet,kubectl
yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
同步一下docker和kubelet的cgroup-driver
vi /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
设置自启动
systemctl enable kubelet
瞄一眼部署k8s需要哪些镜像
kubeadm config images list
2.3.1 部署master节点
用一下阿里云镜像仓库
kubeadm init \
--apiserver-advertise-address=10.133.101.120 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.18.0 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16
初始化之后大概是这个样子
初始化成功后会提示在master节点上使用kubectl工具
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
2.3.2 部署node节点
在node节点机器上添加如下命令:
kubeadm join 10.133.101.120 --token jv039y.bh8yetcpo6zeqfyj \
--discovery-token-ca-cert-hash sha256:3c81e535fd4f8ff1752617d7a2d56c3b23779cf9545e530828c0ff6b507e0e26
node部署
*token是有时间限制的,有效期两小时,可以用如下命令创建token:
kubeadm token create --print-join-command
或者也可以生成一个永久的token:
kubeadm token create --ttl 0 --print-join-command
2.4 部署网络插件fannel
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
启动fannel
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
然后在master节点上查看:
kubectl get nodes
2.3.3 部署网络插件Flannel
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
使用kubectl启用Flannel
kubectl apply -f kube-flannel.yml
检查集群状态
可以正常工作了
3.1 部署Nginx服务
打开网页,上图的port端口和下图不一样是因为我做了两次。。。按照自己生成的来