Ubuntu20.04 部署 k8s

目前生产部署 Kubernetes 集群主要有两种方式

  • kubeadm

Kubeadm是一个k8s部署工具,提供 kubeadm init 和 kubeadm join,用于快速部署 Kubernetes 集群。

kubeadm 是由 k8s 官方所提供的专门部署集群的管理工具。

在每一个节点主机上都要手动安装并运行 docker ,同时也都要手动安装并运行 kubelet。master 节点初始化的这个步骤,其实就是通过kubeadm 工具将 API Server、etcd、controller-manager、scheduler 各组件运行为 Pod,也就是跑在 docker 上。而其他 node 节点,因为已经运行了 kubelet、docker 组件,剩下的 kube-proxy 组件也是要运行在 Pod 上。

kubelet:负责能运行 Pod 化容器的核心组件。
docker:运行容器的引擎。

但是以上 master 节点上的 Pod 都是静态 Pod (static Pod),并不受 k8s 自身管理,只是运行为 Pod 形式而已,也可运行为自托管 Pod。

下图为此种方式部署的架构
1592881-20190718105355158-600288299.png

  • 二进制包

从 github 下载发行版的二进制包,手动部署每个组件,组成 Kubernetes 集群。

此方法是将 API Server、etcd、controller-manager、schedule 等各组件进行 install、编译安装或者展开安装的方式手动直接安装在 master 节点主机上,作为系统级守护进程运行。

将 kube-proxy、kubelet、docker、flannel 各组件进行 install 或下载已预制好的二进制程序包手动安装在 node 节点主机上,作为系统级守护进程运行。

此部署方式非常的繁琐,出于安全方面的考虑,各组件之间通信都需要配置 CA 和证书,且如果 master 宕机了,需要手动启动这些系统级的守护进程。

以下采用 kubeadm 的方式搭建集群。

安装主要事项:

  • 一台节点安装master,一台安装node,不能在一个主机同时安装master和node;
  • k8s里的每一个主机名不能一样;

1. 环境准备

虚拟机/服务器要求:
建议硬件配置:2核CPU、4G内存、40G硬盘。

k8s-master:192.168.10.97
k8s-node1:192.168.10.100
k8s-node2:192.168.10.111

2. 初始化系统

系统:ubuntu 20.04
以下操作在三台机器上都需要执行。

2.1 更改主机名

sudo hostnamectl set-hostname k8s-master
sudo hostnamectl set-hostname k8s-node1
sudo hostnamectl set-hostname k8s-node2

2.2 修改hosts文件

大型环境可以使用 DNS 的方式来使主机名和 ip 互相解析
vim /etc/hosts

192.168.10.97 k8s-master
192.168.10.100 k8s-node1
192.168.10.111 k8s-node2

2.3 配置网卡 ip

系统不同,配置文件可能不同
vim /etc/netplan/00-installer-config.yaml

# Let NetworkManager manage all devices on this system
network:
  ethernets:
    ens33:   #注意修改为实际的网卡 ens33
      dhcp4: no
      addresses: [192.168.10.97/24]   #静态ip,node1/node2换成机器对应的 ip 即可
      gateway4: 192.168.10.1   #网关,可在windows设置里查看
      nameservers:
        addresses: [192.168.10.1]   #DNS,需要根据实际修改,可在windows设置里查看
  version: 2

sudo netplan apply配置生效

2.4 关闭防火墙

sudo systemctl stop ufw.service
sudo systemctl disable ufw.service   #开机禁用
sudo systemctl status ufw.service
ufw disable

测试网络是否正常
ping www.baidu.com
ping 192.168.10.100
ping 192.168.10.111

2.5 修改 apt 源

cd /etc/apt
cp sources.list sources.list.bak:备份
vim sources.list

deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
# deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
# deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse

apt update:更新

2.6 禁用 swap

systemctl stop swap.target
systemctl status swap.target
systemctl disable swap.target   #开机禁用
systemctl stop swap.img.swap
systemctl status swap.img.swap

# 关闭虚拟交换分区
sudo vim /etc/fstab
将 swap.img 的一行注释掉

2.7 修改内核参数

安装 ipvsadm
apt install -y ipvsadm

sudo tee /etc/sysctl.d/k8s.conf << 'EOF'
net.ipv4.ip_forward = 1
EOF

sudo sysctl -p /etc/sysctl.d/k8s.conf 
sudo cat > /etc/modules-load.d/ipvs.conf << EOF
ip_vs dh
ip_vs_fo
ip_vs_ftp
ip_vs
ip_vs_1blc
ip_vs lblcr
ip_vs_lc
ip_vs_mh
ip_vs_nq
ip_vs_ovf
ip_vs_pe_sip
ip_vs_rr
ip vs sed
ip_vs_sh
ip_vs_wlc
ip_vs_wrr
nf_conntrack
EOF

lsmod I grep ip_vs
systemctl enable --now systemd-modules-load.service

reboot:重启
lsmod | grep -e ip_vs -e nf_conntrack_ipv4:重启后确认内核模块是否加载成功

2.8 时间同步

先查看时区是否正常,不正确则替换为上海时区。

date
timedatectl set-timezone Asia/Shanghai   #设置时区
apt -y install ntp	 	#安装ntp服务
systemctl start ntp
systemctl enable ntp

2.9 安装 docker

apt install -y docker.io
systemctl status docker
systemctl enable docker:开机自启

# 配置镜像下载加速
sudo mkdir -p /etc/docker
vim /etc/docker/daemon.json

{
  "registry-mirrors": ["https://7ske187f.mirror.aliyuncs.com"],   #镜像加速
  "exec-opts": ["native.cgroupdriver=systemd"],   #更换驱动,k8s用systemd驱动
  "log-driver": "json-file", 
  "log-opts": {

    "max-size": "100m"

  }, 
  "storage-driver": "overlay2"
}

sudo systemctl daemon-reload:重新加载配置文件
sudo systemctl restart docker:重启docker
docker info | grep -i "Cgroup Driver":查看驱动是否更换
docker ps:测试docker命令是否可以正常使用
注意:
如果出现如下报错,执行代码框内的命令
Job for docker.service failed because the control process exited with error code.
See "systemctl status docker.service" and "journalctl -xe" for details.

mv daemon.json daemon.conf
cp daemon.conf ./daemon.json
sudo systemctl daemon-reload
sudo systemctl restart docker

2.10 使用阿里云 kubernetes 镜像

Kubernetes 镜像配置
https://developer.aliyun.com/mirror/kubernetes/?spm=a2c6h.25603864.0.0.3de125c52PZTug

apt update && apt install -y apt-transport-https
# 下载安装源的gpg秘钥
curl https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add -

cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main
EOF

apt update
sudo apt install -y kubeadm=1.23.6-00 kubelet=1.23.6-00 kubectl=1.23.6-00   #安装指定版本

查看版本
apt-mark hold kubeadm kubelet kubectl:为设置相应资源不自动更新,此处不执行
systemctl enable kubelet.service:开机自启
kubeadm version
kubelet --version
kubectl version --client

3. master 初始化

以下操作只在 master 机器执行。

sudo kubeadm init \
--kubernetes-version v1.23.6 \
--apiserver-advertise-address=192.168.10.97 \
--pod-network-cidr=10.244.0.0/16 \
--image-repository registry.aliyuncs.com/google_containers

# --pod-network-cidr 10.244.0.0/16 参数与后续 CNI 插件有关,这里以 flannel 为例,若部署其他类型的网络插件请更改此参数。
# 使用国内镜像可以指定镜像仓库:--image-repository

1678084236776.jpg
将 kubeadm join 这一段命令记下来,后面加入节点时会用到。
按提示操作
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
export KUBECONFIG=/etc/kubernetes/admin.conf
kubectl get pods -A -o wide
查看pod.jpg
注意:
这里面 coredns 全部是 Pending 是正常的现象,因为系统就是这么设计的。 kubeadm 的网络供应商是中立的,因此管理员应该选择 安装 pod 的网络插件。 你必须完成 Pod 的网络配置,然后才能完全部署 CoreDNS。 在网络被配置好之前,DNS 组件会一直处于 Pending 状态。

4. 部署 CNI

使用 kubectl 部署 flannel 。
vim /etc/hosts/
加入 185.199.110.133 raw.githubusercontent.com 否则下载 kube-flannel.yml 会失败
不想下载直接在这拿 kube-flannel.yml

# 下载 kube-flannel.yml 
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

kubectl apply -f kube-flannel.yml
kubectl get nodes

安装完成后检查一下状态
1678086346485.jpg

附:
解决下载 kube-flannel.yml 失败
https://blog.csdn.net/weibo1230123/article/details/121737413

5. 加入节点

以下操作在 node1 和 node2 执行。

# 加入节点
kubeadm join 192.168.10.97:6443 --token xwwf3c.posdgk2m48ysh52l --discovery-token-ca-cert-hash sha256:414613f653ff2f61e92e085b4d8306f929efba798c8085ae025c613358e91bc4

image.png
如果忘记了上面 kubeadm join 的命令,可以在 master 执行
kubeadm token create --print-join-command:打印添加数据平面(work node)的命令。
kubeadm token create --print-join-command --ttl=0:如果 token 失效,在 master 节点执行重新生成。其中 --ttl=0 表示生成的 token 永不失效。如果不带 --ttl 参数,那么默认有效时间为24小时,在24小时内,可以无数量限制添加 worker。
kubeadm token list:查看所有token。

注意:加入集群后要将master上的 admin.conf 文件拷到node中(可以通过scp传),否则运行“kubectl get nodes”会报错
The connection to the server localhost:8080 was refused - did you specify the right host or port?

# 将 master /etc/kubernetes/admin.conf 复制到node1和node2中,再执行下面的命令
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile

:查看是否加入成功
可以看到 node1 和 node2 已经加入到集群中,网络没问题就会显示 Ready。
image.png
image.png

6. 测试集群

采用 nginx 来测试集群,在 master 节点上依次执行如下命令:
kubectl create deployment nginx --image=nginx
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get pod,svc
1678264197865.jpg

kubectl get pod -o wide可以看到是运行在 node1 节点
image.png

查看下,在浏览器输入 node1节点 ip+端口
192.168.10.100:31369
1678264685944.jpg
测试完毕,删除 nginx
kubectl delete deployment nginx
kubectl delete service nginx

常用命令

# 查看node节点和服务版本信息
kubectl get nodes

# 查看node节点和服务版本信息,并查看详细信息
kubectl get nodes -o wide

# 查看pod信息,默认是default名称空间
kubectl get pod

# 获取所有名称空间的pod
kubectl get po -A

# 查看pod信息,并查看详细信息
kubectl get pod -o wide

# 查看pod信息,以yaml或json格式展示(可以看到许多详细信息)
kubectl get pod pod_name -o yaml/json

# 获取指定名称空间的pod
kubectl get pod -n kube-system
kubectl get pod -n kube-system -o wide

# 获取指定名称空间的指定pod
kubectl get pod -n kube-system podName

# 删除节点,在 master 节点执行
kubectl delete node [node name]

# 删除所有的 pod 
kubectl delete pod --all

# 查看 pod 日志
kubectl describe pod [pod名称]

参考文档:https://www.cnblogs.com/seaskyccl/articles/16424149.html

7. 卸载

# 停止相关服务
systemctl stop kubelet 
systemctl stop etcd 
systemctl stop docker

# 清空K8s集群设置,卸载管理组件
sudo kubeadm reset -f
apt remove -y kubelet kubeadm kubectl

# 删除k8s相关目录
sudo rm -rvf $HOME/.kube
sudo rm -rvf ~/.kube/
sudo rm -rvf /etc/kubernetes/
sudo rm -rvf /etc/systemd/system/kubelet.service.d
sudo rm -rvf /etc/systemd/system/kubelet.service
sudo rm -rvf /usr/bin/kube*
sudo rm -rvf /etc/cni
sudo rm -rvf /opt/cni
sudo rm -rvf /var/lib/etcd
sudo rm -rvf /var/etcd

8. FAQ

8.1 kuberlet 服务启动报错

**问题:**无法运行Kubelet:配置错误 Kubelet cgroup 驱动程序\cgroupfs\不同
"Failed to run kubelet"err="failed to run kubelet: misconfiguration: kubelet cgroup driver: \"systemd"\ is different from docker cgroup driver:\"cgroupfs\""
image.png
原因:
经过分析后发现,是因为“kebernetes默认设置cgroup驱动为systemd,而docker服务的cgroup驱动为cgroupfs”。
解决:
有两种决解决方法。方法一是将docker的服务配置文件修改为何kubernetes的相同,方法二是修改kebernetes的配置文件为cgroupfs,这里采用第一种。

# 修改docker服务配置文件/etc/docker/daemon.json

{
  "registry-mirrors": ["https://7ske187f.mirror.aliyuncs.com"], 
  "exec-opts": ["native.cgroupdriver=systemd"],   #改为systemd
  "log-driver": "json-file", 
  "log-opts": {

    "max-size": "100m"

  }, 
  "storage-driver": "overlay2"
}

# 重启docker服务
sudo systemctl daemon-reload
sudo systemctl restart docker

# 修改后查看docker的cgroup
docker info | grep "Cgroup Driver"

# 重启kuberlet
systemctl restart kubelet
systemctl status kubelet

参考文档:https://www.cnblogs.com/cosmos-wong/p/15709464.html

8.2 kubectl get node 报错

问题:
报错 The connection to the server localhost:8080 was refused - did you specify the right host or port?
这个问题非常常见,master 和 node 机器都有可能碰到,报错与服务器连接被拒绝。
原因:
kubectl 的运行是需要进行配置的,它的配置文件是$HOME/.kube,如果想要在 node 节点运行此命令,需要将master 上的.kube文件复制到 node 节点上。
解决:
先查看下 /etc/kubernetes/ 目录下是否存在 admin.conf,然后将上述文件路径写入到 /.bash_profile 环境变量配置文件中。node节点如果没有 admin.conf 该文件的话,可以将 master 中的拷贝过来。

mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> ~/.bash_profile
source ~/.bash_profile
chown $(id -u):$(id -g) $HOME/.kube/config

参考文档:https://blog.csdn.net/D1179869625/article/details/126929738

8.3 网络问题报错

问题:
查看 kubelet 服务状态发现报错 "Error validating CNI config list" configList="{\n \"name\": \"cbr0\",\n ……
或是Unable to update cni config: No networks found in /etc/cni/net.d
报错3.jpg
解决:
这个错误和 cni 网络插件有关,修改 10-kubeadm.conf 网络插件配置参数, 需要注意下配置路径和插件路径。

cd /etc/systemd/system/kubelet.service.d/
vim 10-kubeadm.conf   #增加一行Environment,如下



# Note: This dropin only works with kubeadm and kubelet v1.11+
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
Environment="KUBELET_NETWORK_ARGS=--network-plugin=cni --cni-conf-dir=/etc/cni/ --cni-bin-dir=/opt/cni/bin"
# This is a file that "kubeadm init" and "kubeadm join" generates at runtime, populating the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably, the user should use
# the .NodeRegistration.KubeletExtraArgs object in the configuration files instead. KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/default/kubelet
ExecStart=
ExecStart=/usr/local/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS


systemctl daemon-reload
systemctl restart docker
systemctl restart kubelet
systemctl status kubelet

常见错误汇总
https://www.cnblogs.com/taoweizhong/p/11545953.html
https://blog.csdn.net/xjpk0/article/details/108704273

参考文档:
https://blog.csdn.net/week_ed/article/details/127376925
https://blog.csdn.net/qq_20143059/article/details/116156448
https://blog.csdn.net/qq_29078779/article/details/106373812
Megrez wiki

  • 10
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ubuntu 20.04部署 Kubernetes 1.24 集群的步骤如下: 1. 确保每台机器上都安装了 Docker 和 Kubernetes 相关软件包。可以使用以下命令安装: ``` sudo apt-get update sudo apt-get install docker.io sudo curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add - sudo apt-add-repository "deb http://apt.kubernetes.io/ kubernetes-xenial main" sudo apt-get update sudo apt-get install -y kubelet kubeadm kubectl ``` 2. 在其中一台机器上初始化 Kubernetes 集群。运行以下命令: ``` sudo kubeadm init --pod-network-cidr=10.244.0.0/16 ``` 其中,`--pod-network-cidr=10.244.0.0/16` 是一个必需的参数,用于指定 Pod 网络的 CIDR。这里我们使用 Flannel 网络插件,默认使用的 Pod 网络 CIDR 是 `10.244.0.0/16`。 3. 安装 Pod 网络插件。运行以下命令: ``` sudo kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ``` 4. 将 Kubernetes 集群加入到其他机器上。运行以下命令: ``` sudo kubeadm join <master-ip>:<master-port> --token <token> --discovery-token-ca-cert-hash <hash> ``` 其中,`<master-ip>` 是 Kubernetes 主节点的 IP 地址,`<master-port>` 是 Kubernetes 主节点的端口号,`<token>` 和 `<hash>` 是在初始化 Kubernetes 集群时生成的。 5. 等待所有节点加入成功。运行以下命令检查节点状态: ``` sudo kubectl get nodes ``` 如果所有节点都已加入成功,将显示所有节点的状态信息。 以上就是在 Ubuntu 20.04部署 Kubernetes 1.24 集群的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值