配置ipvsadm模块加载方式
添加需要加载的模块
mkdir -p /etc/sysconfig/ipvsadm
cat > /etc/sysconfig/ipvsadm/ipvs.modules <<EOF
#!/bin/bash
modprobe – ip_vs
modprobe – ip_vs_rr
modprobe – ip_vs_wrr
modprobe – ip_vs_sh
modprobe – nf_conntrack
EOF
授权、运行、检查是否加载
chmod 755 /etc/sysconfig/ipvsadm/ipvs.modules && bash /etc/sysconfig/ipvsadm/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack
##### 8.关闭swap分区
sed -ri ‘s/.*swap.*/#&/’ /etc/fstab
swapoff -a
grep swap /etc/fstab
### 三、安装docker、ci-dockerd、kubelet、kubeadm、kubectl(所有节点)
#### 3.0 说明(与安装无关)
(1)关于[容器运行时接口]( )(CRI)
官方文档:https://kubernetes.io/zh-cn/docs/setup/production-environment/container-runtimes/#install-and-configure-prerequisites
早期k8s使用docker-shim调用docker容器引擎,但docker-shim不符合CRI标准,每次k8s升级,都要重新适配,极其麻烦,Kubernetes v1.24移除docker-shim的支持,使用CRI shim。containerd是一个主流的容器引擎,内置CRI shim,与Docker相兼容,相比Docker轻量很多,目前较为成熟。
参考资料:[https://kubernetes.io/zh/docs/setup/production-environment/container-runtimes/#containerd](#containerd)
k8s(v1.24版本以前)使用docker-shim调用流程:kubelet(客户端) -> docker shim -> dockerd -> containerd -> containerd-shim -> runc
![image-20231228072135013](https://img-blog.csdnimg.cn/img_convert/56bc812cc8fda6b47bc4f543268e6bd7.png)
k8s(v1.24版本以后)使用CRI shim调用流程:kubelet(客户端) ->CRI shim(被contained内置) -> containerd -> containerd-shim -> runc
![在这里插入图片描述](https://img-blog.csdnimg.cn/img_convert/18ad719e93c1bfddbddad6f61aa0263b.png)
**为什么要安装docker和ci-dockerd?**
Kubernetes v1.24移除docker-shim的支持,而Docker Engine默认又不支持CRI标准,因此二者默认无法再直接集成。为此,Mirantis和Docker联合创建了cri-dockerd项目,用于为Docker Engine提供一个能够支持到CRI规范的桥梁,从而能够让Docker作为Kubernetes容器引擎。
如图所示:
![image-20231228065456788](https://img-blog.csdnimg.cn/img_convert/aa2799d8d6022045ffa54c62c8ec49c2.png)
#### 3.1 安装docker
参考:
docker安装:https://developer.aliyun.com/mirror/docker-ce
cgroup驱动:https://kubernetes.io/zh-cn/docs/setup/production-environment/container-runtimes/#cgroup-drivers
yum -y install wget && wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce
配置cgroup驱动及镜像下载加速器:
cat > /etc/docker/daemon.json << EOF
{
“exec-opts”: [“native.cgroupdriver=systemd”],
“registry-mirrors”: [
“https://rsbud4vc.mirror.aliyuncs.com”,
“https://registry.docker-cn.com”,
“https://docker.mirrors.ustc.edu.cn”,
“https://dockerhub.azk8s.cn”,
“http://hub-mirror.c.163.com”
]
}
EOF
systemctl enable docker && systemctl start docker && systemctl status docker && docker info|grep systemd
#### 3.2 安装cri-dockerd
参考:https://github.com/Mirantis/cri-dockerd
说明:**Pause镜像和Pause容器**
每个Pod里运行着一个特殊的被称之为Pause的容器,其他容器则为业务容器,这些业务容器共享Pause容器的网络栈和Volume挂载卷,因此他们之间通信和数据交换更为高效,在设计时我们可以充分利用这一特性将一组密切相关的服务进程放入同一个Pod中。同一个Pod里的容器之间仅需通过localhost就能互相通信。
**kubernetes中的pause容器主要为每个业务容器提供以下功能:**
* PID命名空间:Pod中的不同应用程序可以看到其他应用程序的进程ID。
* 网络命名空间:Pod中的多个容器能够访问同一个IP和端口范围。
* IPC命名空间:Pod中的多个容器能够使用SystemV IPC或POSIX消息队列进行通信。
* UTS命名空间:Pod中的多个容器共享一个主机名;Volumes(共享存储卷):
* Pod中的各个容器可以访问在Pod级别定义的Volum
![在这里插入图片描述](https://img-blog.csdnimg.cn/img_convert/0b68cdab821dcf8e63b619282972b551.png)
下载安装最新版的cri-dockerd
wget https://github.com/Mirantis/cri-dockerd/releases/download/v0.3.8/cri-dockerd-0.3.8.amd64.tgz
tar xf cri-dockerd-0.3.8.amd64.tgz
mv cri-dockerd/cri-dockerd /usr/bin/
rm -rf cri-dockerd cri-dockerd-0.3.8.amd64.tgz
配置启动项
cat > /etc/systemd/system/cri-docker.service<<EOF
[Unit]
Description=CRI Interface for Docker Application Container Engine
Documentation=https://docs.mirantis.com
After=network-online.target firewalld.service docker.service
Wants=network-online.target
Requires=cri-docker.socket
[Service]
Type=notify
ExecStart=/usr/bin/cri-dockerd --container-runtime-endpoint fd://
指定用作 Pod 的基础容器的容器镜像(“pause 镜像”)
ExecStart=/usr/bin/cri-dockerd --pod-infra-container-image=registry.k8s.io/pause:3.9 --container-runtime-endpoint fd://
ExecReload=/bin/kill -s HUP $MAINPID
TimeoutSec=0
RestartSec=2
Restart=always
StartLimitBurst=3
StartLimitInterval=60s
LimitNOFILE=infinity
LimitNPROC=infinity
LimitCORE=infinity
TasksMax=infinity
Delegate=yes
KillMode=process
[Install]
WantedBy=multi-user.target
EOF
cat > /etc/systemd/system/cri-docker.socket <<EOF
[Unit]
Description=CRI Docker Socket for the API
PartOf=cri-docker.service
[Socket]
ListenStream=%t/cri-dockerd.sock
SocketMode=0660
SocketUser=root
SocketGroup=docker
[Install]
WantedBy=sockets.target
EOF
systemctl daemon-reload
systemctl enable cri-docker && systemctl start cri-docker && systemctl status cri-docker
#### 3.3 安装kubelet、kubeadm、kubectl
配置k8s源
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://pkgs.k8s.io/core:/stable:/v1.29/rpm/
enabled=1
gpgcheck=1
gpgkey=https://pkgs.k8s.io/core:/stable:/v1.29/rpm/repodata/repomd.xml.key
exclude=kubelet kubeadm kubectl cri-tools kubernetes-cni
EOF
yum install -y kubelet kubeadm kubectl
配置 cgroup 驱动与docker一致
cp /etc/sysconfig/kubelet{,.bak}
cat > /etc/sysconfig/kubelet <<EOF
KUBELET_EXTRA_ARGS=“–cgroup-driver=systemd”
EOF
systemctl enable kubelet
安装自动补全工具(可选)
yum install bash-completion -y
source /usr/share/bash-completion/bash_completion
echo “source <(kubectl completion bash)” >> ~/.bashrc
source ~/.bashrc
查看配置镜像
kubeadm config images list
registry.k8s.io/kube-apiserver:v1.29.0
registry.k8s.io/kube-controller-manager:v1.29.0
registry.k8s.io/kube-scheduler:v1.29.0
registry.k8s.io/kube-proxy:v1.29.0
registry.k8s.io/coredns/coredns:v1.11.1
registry.k8s.io/pause:3.9
registry.k8s.io/etcd:3.5.10-0
重点,重点,重点
kubeadm部署集群,需要用到k8s配置镜像和Calico网络配置镜像
由于默认拉取镜像地址k8s.gcr.io国内无法访问,国内镜像仓库我也没有找到,所以建议提前下载好,导入镜像。
所有需要用到镜像(k8s配置镜像和Calico网络配置镜像):
docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
calico/kube-controllers v3.27.0 4e87edec0297 12 days ago 75.5MB
calico/cni v3.27.0 8e8d96a874c0 12 days ago 211MB
calico/pod2daemon-flexvol v3.27.0 6506d2e0be2d 12 days ago 15.4MB
calico/node v3.27.0 1843802b91be 13 days ago 340MB
registry.k8s.io/kube-apiserver v1.29.0 1443a367b16d 2 weeks ago 127MB
registry.k8s.io/kube-scheduler v1.29.0 7ace497ddb8e 2 weeks ago 59.5MB
registry.k8s.io/kube-controller-manager v1.29.0 0824682bcdc8 2 weeks ago 122MB
registry.k8s.io/kube-proxy v1.29.0 98262743b26f 2 weeks ago 82.2MB
registry.k8s.io/etcd 3.5.10-0 a0eed15eed44 8 weeks ago 148MB
registry.k8s.io/coredns/coredns v1.11.1 cbb01a7bd410 4 months ago 59.8MB
registry.k8s.io/pause 3.9 e6f181688397 14 months ago 744kB
**偷懒小技巧:如果是用vmware,操作完以上步骤,做个快照,以后想添加节点直接克隆虚拟机,就不需要每台都操作,直接修改主机名和IP可以作master或node节点,哈哈哈哈**
### 四、部署k8s master
初始化集群
kubeadm init
–apiserver-advertise-address 192.168.8.8
–kubernetes-version v1.29.0
–pod-network-cidr=10.244.0.0/16
–cri-socket=unix:///var/run/cri-dockerd.sock
说明:
–apiserver-advertise-address 集群通告地址,node节点连接master的地址,如果是高可用,需要配置VIP的地址。这里是单master架构,默认master地址即可。
–kubernetes-version K8s版本,与上面安装的一致
–pod-network-cidr Pod网络,与下面部署的CNI网络组件yaml中保持一致
–cri-socket 指定cri-dockerd接口,如果是containerd则使用–cri-socket unix:///run/containerd/containerd.sock
创建配置目录
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown
(
i
d
−
u
)
:
(id -u):
(id−u):(id -g) $HOME/.kube/config
默认初始化生成token有效期是24小时,所以我们用自己的生成不过期的token,node节点加入需要用到
kubeadm token create --ttl 0 --print-join-command
生成结果如下:
kubeadm join 192.168.8.8:6443 --token l0p87y.osc78zqb5n9wpmc7 --discovery-token-ca-cert-hash sha256:567667dd42cdef1c1db11d1a323d97eafd580c3343cde86972bcb41ac3b2bf9f
### 五、部署k8s node
说明:node节点操作都一样。
kubeadm join 192.168.8.8:6443 --token l0p87y.osc78zqb5n9wpmc7 --discovery-token-ca-cert-hash sha256:567667dd42cdef1c1db11d1a323d97eafd580c3343cde86972bcb41ac3b2bf9f --cri-socket=unix:///var/run/cri-dockerd.sock
说明:kubeadm join 192.168.8.8:6443 --token l0p87y.osc78zqb5n9wpmc7 --discovery-token-ca-cert-hash sha256:567667dd42cdef1c1db11d1a323d97eafd580c3343cde86972bcb41ac3b2bf9f,这命令在master节点使用kubeadm token create --ttl 0 --print-join-command生成的,添加节点需要指定cri-dockerd接口–cri-socket ,这里是使用cri-dockerd,如果是containerd则使用–cri-socket unix:///run/containerd/containerd.sock
### 六、部署容器网络(CNI)
Calico是一个纯三层的数据中心网络方案,是目前Kubernetes主流的网络方案。
下载地址:https://github.com/projectcalico/calico
wget https://github.com/projectcalico/calico/blob/v3.27.0/manifests/calico.yaml
下载完后还需要修改里面定义Pod网络(CALICO\_IPV4POOL\_CIDR),与前面kubeadm init的 --pod-network-cidr指定的一样。
![image-20231229000132353](https://img-blog.csdnimg.cn/img_convert/c3a3fc902a113ee1733d267a05f382d2.png)
修改完后文件后,部署:
kubectl apply -f calico.yaml
kubectl get pods -n kube-system
kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-node01 Ready 14h v1.29.0
k8s-node02 Ready 95m v1.29.0
k8s-master Ready control-plane 14h v1.29.0
说明k8s部署完成
等Calico Pod都Running,节点也会准备就绪。
注:以后所有yaml文件都只在Master节点执行。
安装目录:/etc/kubernetes/
组件配置文件目录:/etc/kubernetes/manifests/
参考资料:[https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/#pod-network](#pod-network)
### 七、测试k8s集群
kubectl create deployment web -r 2 --image=nginx
kubectl expose deployment web --port=80 --type=NodePort
kubectl get deployments
NAME READY UP-TO-DATE AVAILABLE AGE
web 2/2 2 2 103s
kubectl get pods
NAME READY STATUS RESTARTS AGE
web-76fd95c67-db768 1/1 Running 0 2m24s
web-76fd95c67-k59wj 1/1 Running 0 2m24s
kubectl get svc |grep web
web NodePort 10.98.28.43 80:31166/TCP 2m25s
31166端口是容器80映射到主机的端口
两个nginx pod部署完了,访问:
http://192.168.8.9:31166/
http://192.168.8.10:31166/
### 八、部署k8s管理面板Dashboard(可选)
说明:两种dashboard都还没适配k8s1.29.0版本,所以可以不安装,哪种比较好,自己看着来呗。
#### (1)部署官方Dashboard
地址:https://github.com/kubernetes/dashboard
Dashboard是官方提供的一个UI,可用于基本管理K8s资源。dashboard当前稳定版本是2.7.0
兼容性:
![image-20231229002515964](https://img-blog.csdnimg.cn/img_convert/d1f2c0ee8432f333a2ddb71f9029a8c0.png)
默认Dashboard只能集群内部访问,修改service为NodePort类型,暴露到外部
wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.7.0/aio/deploy/recommended.yaml
默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
![image-20231229003639335](https://img-blog.csdnimg.cn/img_convert/cf344a7c3b8c23d565d2f24c6790767c.png)
vi recommended.yaml
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
ports:
- port: 443
targetPort: 8443
nodePort: 30001
selector:
k8s-app: kubernetes-dashboard
type: NodePort
部署
kubectl apply -f recommended.yaml
kubectl get pods -n kubernetes-dashboard
访问地址:https://NodeIP:30001
创建service account并绑定默认cluster-admin管理员集群角色: