小伙伴儿们,如果觉得文章干货满满,欢迎加入公众号【编程识堂】,更多干货等着你们来哦!
硬件安装要求
注:由于我资源有限,下面只是模拟集群,生产环境,各位小伙伴请合理安排好资源
临时演示集群节点
master 192.168.150.128
node1 192.168.150.129
node2 192.168.150.130
node3 192.168.150.131
Centos安装
centos下载地址
推荐大家使用centos7.6以上版本。
##下载地址
http://mirrors.aliyun.com/centos/7/isos/x86_64/
##查看centos系统版本命令:
cat /etc/centos-release
##修改虚拟机为固定ip 修改 IPADDR=192.168.150.131
vi /etc/sysconfig/network-scripts/ifcfg-ens33
##重启系统网络
systemctl restart network
配置阿里云yum源
##1.下载安装wget
yum install -y wget
##2.备份默认的yum
mv /etc/yum.repos.d /etc/yum.repos.d.backup
##3.设置新的yum目录
mkdir -p /etc/yum.repos.d
##4.下载阿里yum配置到该目录中,选择对应版本
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
##5.更新epel源为阿里云epel源
mv /etc/yum.repos.d/epel.repo /etc/yum.repos.d/epel.repo.backup
mv /etc/yum.repos.d/epel-testing.repo /etc/yum.repos.d/epeltesting.repo.backup
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
##6.重建缓存
yum clean all
yum makecache
##7.看一下yum仓库有多少包
yum repolist
yum update
升级系统内核
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm
yum --enablerepo=elrepo-kernel install -y kernel-lt
grep initrd16 /boot/grub2/grub.cfg
grub2-set-default 0
reboot
查看centos系统内核命令
uname -r
uname -a
查看CPU命令
lscpu
查看内存命令
free
free -h
查看硬盘信息
fdisk -l
centos7系统配置
关闭防火墙
注:生产环境勿关
systemctl stop firewalld
systemctl disable firewalld
关闭selinux
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
setenforce 0
网桥过滤
vi /etc/sysctl.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-arptables = 1
net.ipv4.ip_forward=1
net.ipv4.ip_forward_use_pmtu = 0
生效命令
sysctl --system
查看效果
sysctl -a|grep "ip_forward"
开启IPVS
##安装IPVS
yum -y install ipset ipvsdm
##编译ipvs.modules文件
vi /etc/sysconfig/modules/ipvs.modules
##文件内容如下
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
##赋予权限并执行
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules &&lsmod | grep -e ip_vs -e nf_conntrack_ipv4
##重启电脑,检查是否生效
reboot
lsmod | grep ip_vs_rr
报错:
原因是:安装K8S需要配置ipvs功能,但是在进行配置时会报错modprobe: FATAL: Module nf_conntrack_ipv4 not found.
这是因为使用了高内核,较如博主就是使用了5.2的内核,一般教程都是3.2的内核。在高版本内核已经把nf_conntrack_ipv4替换为nf_conntrack了。所以正确配置应该如下
vi /etc/sysconfig/modules/ipvs.modules
##文件内容如下
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
##赋予权限并执行
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules &&lsmod | grep -e ip_vs -e nf_conntrack
同步时间
避免集群中时间不同步导致问题
##安装软件
yum -y install ntpdate
##向阿里云服务器同步时间
ntpdate time1.aliyun.com
##删除本地时间并设置时区为上海
rm -rf /etc/localtime
ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
##查看时间
date -R || date
命令补全
##安装bash-completion
yum -y install bash-completion bash-completion-extras
##使用bash-completion
source /etc/profile.d/bash_completion.sh
关闭swap分区
注:安装k8s集群,官方建议关闭swapoff
##临时关闭:
swapoff -a
##永久关闭:
vi /etc/fstab
##将文件中的/dev/mapper/centos-swap这行代码注释掉
#/dev/mapper/centos-swap swap swap defaults 0 0
##确认swap已经关闭:若swap行都显示 0 则表示关闭成功
free -m
hosts配置
vi /etc/hosts
## 文件内容如下:
cat <<EOF >>/etc/hosts
192.168.150.128 master
192.168.150.129 node1
192.168.150.130 node2
192.168.150.131 node3
EOF
docker安装
docker安装及使用在之前文章已详细介绍了,请参考:Docker容器虚拟化技术
修改Cgroup Driver
只需另外修改docker配置
修改cgroupdriver是为了消除安装k8s集群时的告警
vi /etc/docker/daemon.json
##修改daemon.json,新增:
"exec-opts": ["native.cgroupdriver=systemd"]
##重启docker服务:
systemctl daemon-reload
systemctl restart docker
##查看修改后状态:
docker info | grep Cgroup
kubeadm安装
#新建repo文件
vi /etc/yum.repos.d/kubernates.repo
## yum -y makecache
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
## 更新缓存
yum clean all
yum -y makecache
##4验证源是否可用
yum list | grep kubeadm
##如果提示要验证yum-key.gpg是否可用,输入y。查找到kubeadm。显示版本
## 查看k8s版本
yum list kubelet --showduplicates | sort -r
## 安装k8s-1.17.5
yum install -y kubelet-1.17.5 kubeadm-1.17.5 kubectl-1.17.5
设置kubelet
增加配置信息
##如果不配置kubelet,可能会导致K8S集群无法启动。为实现docker使用的cgroupdriver与kubelet
##使用的cgroup的一致性。
vi /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
设置开机启动
systemctl enable kubelet
初始化镜像
如果是第一次安装k8s,手里没有备份好的镜像,可以执行如下操作 。
查看安装集群需要的镜像
kubeadm config images list
编写执行脚本
mkdir -p /data
cd /data
vi images.sh
#!/bin/bash
# 下面的镜像应该去除"k8s.gcr.io"的前缀,版本换成kubeadm config images list命令获取到的版本
images=(
kube-apiserver:v1.17.5
kube-controller-manager:v1.17.5
kube-scheduler:v1.17.5
kube-proxy:v1.17.5
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)
for imageName in ${images[@]} ;
do
docker pull registry.cnhangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cnhangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cnhangzhou.aliyuncs.com/google_containers/$imageName
done
执行脚本
给脚本授权
chmod +x images.sh
执行脚本
./images.sh
保存镜像
docker save -o k8s.1.17.5.tar \
k8s.gcr.io/kube-proxy:v1.17.5 \
k8s.gcr.io/kube-apiserver:v1.17.5 \
k8s.gcr.io/kube-controller-manager:v1.17.5 \
k8s.gcr.io/kube-scheduler:v1.17.5 \
k8s.gcr.io/coredns:1.6.5 \
k8s.gcr.io/etcd:3.4.3-0 \
k8s.gcr.io/pause:3.1 \
导入镜像
导入master节点镜像tar包
docker load -i k8s.1.17.5.tar
导入node节点镜像tar包
docker save -o k8s.1.17.5.node.tar \
k8s.gcr.io/kube-proxy:v1.17.5 \
k8s.gcr.io/pause:3.1 \
## node节点需要kube-proxy:1.17.5 和pause:3.1,2个镜像
scp k8s.1.17.5.node.tar root@192.168.150.129:/data/
scp k8s.1.17.5.node.tar root@192.168.150.130:/data/
scp k8s.1.17.5.node.tar root@192.168.150.131:/data/
docker load -i k8s.1.17.5.node.tar
初始化集群
配置k8s集群网络
calico官网地址
##官网下载地址: 放在data目录下
https://docs.projectcalico.org/v3.14/manifests/calico.yaml
##github地址:
https://github.com/projectcalico/calico
##镜像下载:
docker pull calico/cni:v3.14.2
docker pull calico/pod2daemon-flexvol:v3.14.2
docker pull calico/node:v3.14.2
docker pull calico/kube-controllers:v3.14.2
##配置hostname:
hostnamectl set-hostname master
bash
hostnamectl set-hostname node1
bash
hostnamectl set-hostname node2
bash
hostnamectl set-hostname node3
bash
初始化集群信息:calico网络
kubeadm init --apiserver-advertise-address=192.168.150.128 --kubernetes-version 1.17.5 --service-cidr=10.1.0.0/16 --pod-network-cidr=10.81.0.0/16
Master执行配置命令
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
node节点加入集群信息
kubeadm join 192.168.150.128:6443 --token gu7zbw.cmiwgrxyfuqnyssz \
--discovery-token-ca-cert-hash sha256:4b9385612d588e210e54e880b8cea958ee904b263e5e08a710a661d1a5d5bbac
注:status 一直NotReady是因为网络没准备好
kubectl apply -f calico.yaml
kubectl命令自动补全
echo "source <(kubectl completion bash)" >> ~/.bash_profile
source ~/.bash_profile
卸载集群
删除pod
kubectl delete node --all
清空KS8集群设置
kubeadm reset
卸载通过yum安装的组件
yum erase -y kubelet kubectl kubeadm kubernetes-cni
yum clean all
yum remove kube*
删除文件
rm -rf ~/.kube/
rm -rf /etc/kubernetes/
rm -rf /etc/systemd/system/kubelet.service.d
rm -rf /etc/systemd/system/kubelet.service
rm -rf /usr/bin/kube*
rm -rf /etc/cni
rm -rf /opt/cni
rm -rf /var/lib/etcd
rm -rf /var/etcd
删除k8s镜像
# 查看镜像
docker images
# 删除对应的k8s容器镜像
docker rmi -f xxxx