linux搭建kubernetes集群(一主二从)

7 篇文章 0 订阅
1 篇文章 0 订阅

目录

目录

1.环境准备

1.1禁用swap(kubernetes特性)

1.2 关闭iptables(三台机器都要设置)

1.3 修改主机名(三台机器都要设置)

1.4 域名解析,ssh免密登录

1.5 调整docker配置文件(所有机器)

2.安装k8s

2.1下载yum源

2.2创建缓存(将后面需要下载的rpm包缓存下来,方便其他机器使用)

2.3 打开iptables桥接功能(三个节点都需调整)

2.4 打开路由转发(三个节点都需调整)

2.5 回到master节点

2.6 初始化集群(下载镜像)

2.7 其他节点加入集群

         3.k8s网络环境重置


Kubernetes是一个开源的,用于管理云平台中多个主机上的容器化的应用,Kubernetes的目标是让部署容器化的应用简单并且高效(powerful),Kubernetes提供了应用部署,规划,更新,维护的一种机制。

Kubernetes可以在物理或虚拟机的Kubernetes集群上运行容器化应用,Kubernetes能提供一个以“容器为中心的基础架构”,满足在生产环境中运行应用的一些常见需求。

kubernetes中文官网:
 https://kubernetes.io/zh/
kubernetes中文社区:
 https://www.kubernetes.org.cn/

1.环境准备

我的服务器资源环境

每台主机必须安装docker,关闭防火墙(一般kubernetes是局域网运行),禁用selinux(确保文件访问),确保时间同步。

1.1禁用swap(kubernetes特性)

注意:所有节点都需禁用,不然无法加入集群。

#查看是否启用swap
[root@m72 ~]# free -h
              total        used        free      shared  buff/cache   available
Mem:            62G        647M         54G        1.0G        7.9G         60G
Swap:           15G          0B         15G

关闭swap,执行

# 关闭swap
[root@m72 ~]# swapoff -a
# 修改swap配置文件
[root@m72 ~]# vim /etc/fstab

注释掉下面部分

1.2 关闭iptables(三台机器都要设置)

关闭iptables,并重启docker服务

[root@m72 ~]# iptables -F


[root@m72 ~]# systemctl daemon-reload
[root@m72 ~]# systemctl restart docker

1.3 修改主机名(三台机器都要设置)

修改成对应的主机名,我这里主机设置的是m72, 2个节点是s73和s74


[root@m72 ~]# hostnamectl set-hostname m72

[root@s73 ~]# hostnamectl set-hostname s73

[root@s74 ~]# hostnamectl set-hostname s74

1.4 域名解析,ssh免密登录

修改主机hosts文件

[root@m72 ~]# vim /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
10.220.15.72 m72
10.220.15.73 s73
10.220.15.74 s74

将hosts文件拷贝给其他两个节点:

[root@m72 ~]# scp /etc/hosts root@10.220.15.73:/etc/hosts
                                                                                                   
[root@m72 ~]# scp /etc/hosts root@10.220.15.74:/etc/hosts

主机生成ssh秘钥

[root@m72 ~]# ssh-keygen -t rsa

Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:ZEdN2IJIihMOhSrVavfgY81EDm6mJw1clOIg7hLwzpg root@m72
The key's randomart image is:
+---[RSA 2048]----+
|.ooo.o.. ..=.    |
|=ooo=.o ..o o    |
|=*+=.+  o ..     |
|+.B.* oo .       |
|oB O *  S        |
|E.= * +          |
|.  + .           |
|                 |
|                 |
+----[SHA256]-----+

拷贝秘钥给另外两个节点

[root@m72 ~]# ssh-copy-id s73
[root@m72 ~]# ssh-copy-id s74

1.5 调整docker配置文件(所有机器)

# kubernetes 官方推荐 docker 等使用 systemd 作为 cgroupdriver,否则 kubelet 启动不了

    vi /etc/docker/daemon.json

主要是增加"exec-opts": ["native.cgroupdriver=systemd"],这个选项,其他的根据自己的配置来

{
  "exec-opts": ["native.cgroupdriver=systemd"],
 "storage-driver": "overlay2",
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "registry-mirrors": ["https://b9307g5p.mirror.aliyuncs.com"]
}

完成后重启生效

systemctl daemon-reload 
systemctl restart docker

2.安装k8s

我们安装k8s时,利用的是kubernetes官方开发出来的自动化部署的软件(kubeadm),以来实现更快速的安装k8s。

2.1下载yum源

我们这里选择阿里的yum源

https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/

新建一个kubernetes的repo文件

vim /etc/yum.repos.d/kubernetes.repo

加入以下内容,保存

[kubernetes]
name=kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enable=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

2.2创建缓存(将后面需要下载的rpm包缓存下来,方便其他机器使用)

[root@m72 ~]# yum makecache
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
 * base: mirrors.bfsu.edu.cn
 * extras: mirrors.aliyun.com
 * updates: mirrors.aliyun.com
base                                                                                                                     | 3.6 kB  00:00:00     
docker-ce-stable                                                                                                         | 3.5 kB  00:00:00     
extras                                                                                                                   | 2.9 kB  00:00:00     
kubernetes                                                                                                               | 1.4 kB  00:00:00     
updates                                                                                                                  | 2.9 kB  00:00:00     
......
kubernetes                                                                                                                              797/797
kubernetes                                                                                                                              797/797
Metadata Cache Created

将kubernetes.repo复制给其他两台机器

[root@m72 /]# scp /etc/yum.repos.d/kubernetes.repo s73:/etc/yum.repos.d/
                                                                                              
[root@m72 /]# scp /etc/yum.repos.d/kubernetes.repo s74:/etc/yum.repos.d/

2.3 打开iptables桥接功能(三个节点都需调整)

自定义文件k8s.conf

[root@m72 /]# vim /etc/sysctl.d/k8s.conf

# 加入以下内容
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-ip6tables = 1

# 使配置生效
[root@m72 /]# sysctl -p /etc/sysctl.d/k8s.conf 

同样方式调整另外两台机器

2.4 打开路由转发(三个节点都需调整)

[root@m72 /]# echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf 

# 使配置生效
[root@master ~]# sysctl -p  

同样方式调整另外两台机器

2.5 回到master节点

[root@m72 /]# vim /etc/yum.conf 

修改keepcache=1 //启用缓存

下载rpm包

[root@m72 /]# yum -y install kubelet-1.22.4 kubeadm-1.22.4 kubectl-1.22.4

下载完成后查看是否缓存了rpm包

[root@m72 /]# cd /var/cache/yum/x86_64/7/kubernetes/packages/
[root@m72 packages]# ll

total 67204
-rw-r--r--. 1 root root  7401938 Mar 18 06:26 4d300a7655f56307d35f127d99dc192b6aa4997f322234e754f16aaa60fd8906-cri-tools-1.23.0-0.x86_64.rpm
-rw-r--r--. 1 root root  9290806 Jan  4  2021 aa386b8f2cac67415283227ccb01dc043d718aec142e32e1a2ba6dbd5173317b-kubeadm-1.22.4-0.x86_64.rpm
-rw-r--r--. 1 root root 19487362 Jan  4  2021 db7cb5cb0b3f6875f54d10f02e625573988e3e91fd4fc5eef0b1876bb18604ad-kubernetes-cni-0.8.7-0.x86_64.rpm
-rw-r--r--. 1 root root  9920226 Jan  4  2021 f27b0d7e1770ae83c9fce9ab30a5a7eba4453727cdc53ee96dc4542c8577a464-kubectl-1.22.4-0.x86_64.rpm
-rw-r--r--. 1 root root 22704558 Jan  4  2021 f5edc025972c2d092ac41b05877c89b50cedaa7177978d9e5e49b5a2979dbc85-kubelet-1.22.4-0.x86_64.rpm

设置kubelet开机自启动

[root@m72 packages]# systemctl enable kubelet.service

2.6 初始化集群(下载镜像)

可是由于国内网络环境限制,我们不能直接从谷歌的镜像站下载镜像,我们直接上传镜像文件到集群,然后导入即可

链接:百度网盘 
提取码:kuxd

编写脚本自动导入

vim images-import.sh

加入以下内容

#!/bin/bash
# 默认会解压到/root/kubeadm-basic.images文件下
tar -zxvf /root/kubeadm-basic.images.tar.gz
ls /root/kubeadm-basic.images > /tmp/image-list.txt
cd /root/kubeadm-basic.images

for i in $( cat /tmp/image-list.txt )
do
        docker load -i $i
done

rm -rf /tmp/image-list.txt

执行脚本,查看docker镜像列表是否成功

[root@m72 ~]# sh images-import.sh 

# 查看是否成功
[root@m72 ~]# docker images
REPOSITORY                           TAG                 IMAGE ID            CREATED             SIZE
k8s.gcr.io/kube-apiserver            v1.22.4             68c3eb07bfc3        2 years ago         207MB
k8s.gcr.io/kube-controller-manager   v1.22.4             d75082f1d121        2 years ago         159MB
k8s.gcr.io/kube-proxy                v1.22.4            89a062da739d        2 years ago         82.4MB
k8s.gcr.io/kube-scheduler            v1.22.4             b0b3c4c404da        2 years ago         81.1MB
k8s.gcr.io/coredns                   1.3.1               eb516548c180        3 years ago         40.3MB
k8s.gcr.io/etcd                      3.3.10              2c4adeb21b4f        3 years ago         258MB
k8s.gcr.io/pause                     3.1                 da86e6ba6ca1        4 years ago         742kB

docker镜像都导入后,执行初始化集群

kubeadm init --kubernetes-version=v1.22.4 --pod-network-cidr=10.244.0.0/16 --image-repository registry.aliyuncs.com/google_containers --service-cidr=10.96.0.0/12 --ignore-preflight-errors=Swap
#–kubernetes-version:**指定当前kubernetes版本号(查看版本:kubelet --version)
#–pod-network: 指定pod网段,kubernetes默认指定网络。
#–ignore:忽略所有报错

执行后如下图,记住最后打印的token语句,其他节点加入需要用得到


[init] Using Kubernetes version: v1.22.4

......

[addons] Applied essential addon: kube-proxy

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 10.220.15.72:6443 --token cralff.5gzyqjx8jirtta2c \
    --discovery-token-ca-cert-hash sha256:d72a9456b0ccb8e2bbdf58ae735410249ec9d6dfb641aa9e38e60e336de6d5bc 

根据上面的提示创建目录并授权

[root@m72 ~]# mkdir -p $HOME/.kube
[root@m72 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@m72 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

查看节点

[root@m72 ~]# kubectl get nodes
NAME   STATUS     ROLES    AGE     VERSION
m72    NotReady   master   9m54s   v1.22.4

显示 NotReady,是因为还缺少一个附件flannel,没有网络各Pod是无法通信的。

下载kube-flannel.yml文件,可能被墙无法下载,那么本地直接创建。

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

内容如下:

---
kind: Namespace
apiVersion: v1
metadata:
  name: kube-flannel
  labels:
    k8s-app: flannel
    pod-security.kubernetes.io/enforce: privileged
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  labels:
    k8s-app: flannel
  name: flannel
rules:
- apiGroups:
  - ""
  resources:
  - pods
  verbs:
  - get
- apiGroups:
  - ""
  resources:
  - nodes
  verbs:
  - get
  - list
  - watch
- apiGroups:
  - ""
  resources:
  - nodes/status
  verbs:
  - patch
- apiGroups:
  - networking.k8s.io
  resources:
  - clustercidrs
  verbs:
  - list
  - watch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
  labels:
    k8s-app: flannel
  name: flannel
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: flannel
subjects:
- kind: ServiceAccount
  name: flannel
  namespace: kube-flannel
---
apiVersion: v1
kind: ServiceAccount
metadata:
  labels:
    k8s-app: flannel
  name: flannel
  namespace: kube-flannel
---
kind: ConfigMap
apiVersion: v1
metadata:
  name: kube-flannel-cfg
  namespace: kube-flannel
  labels:
    tier: node
    k8s-app: flannel
    app: flannel
data:
  cni-conf.json: |
    {
      "name": "cbr0",
      "cniVersion": "0.3.1",
      "plugins": [
        {
          "type": "flannel",
          "delegate": {
            "hairpinMode": true,
            "isDefaultGateway": true
          }
        },
        {
          "type": "portmap",
          "capabilities": {
            "portMappings": true
          }
        }
      ]
    }
  net-conf.json: |
    {
      "Network": "10.244.0.0/16",
      "Backend": {
        "Type": "vxlan"
      }
    }
---
apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: kube-flannel-ds
  namespace: kube-flannel
  labels:
    tier: node
    app: flannel
    k8s-app: flannel
spec:
  selector:
    matchLabels:
      app: flannel
  template:
    metadata:
      labels:
        tier: node
        app: flannel
    spec:
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            nodeSelectorTerms:
            - matchExpressions:
              - key: kubernetes.io/os
                operator: In
                values:
                - linux
      hostNetwork: true
      priorityClassName: system-node-critical
      tolerations:
      - operator: Exists
        effect: NoSchedule
      serviceAccountName: flannel
      initContainers:
      - name: install-cni-plugin
        image: docker.io/flannel/flannel-cni-plugin:v1.2.0
        command:
        - cp
        args:
        - -f
        - /flannel
        - /opt/cni/bin/flannel
        volumeMounts:
        - name: cni-plugin
          mountPath: /opt/cni/bin
      - name: install-cni
        image: docker.io/flannel/flannel:v0.22.2
        command:
        - cp
        args:
        - -f
        - /etc/kube-flannel/cni-conf.json
        - /etc/cni/net.d/10-flannel.conflist
        volumeMounts:
        - name: cni
          mountPath: /etc/cni/net.d
        - name: flannel-cfg
          mountPath: /etc/kube-flannel/
      containers:
      - name: kube-flannel
        image: docker.io/flannel/flannel:v0.22.2
        command:
        - /opt/bin/flanneld
        args:
        - --ip-masq
        - --kube-subnet-mgr
        resources:
          requests:
            cpu: "100m"
            memory: "50Mi"
        securityContext:
          privileged: false
          capabilities:
            add: ["NET_ADMIN", "NET_RAW"]
        env:
        - name: POD_NAME
          valueFrom:
            fieldRef:
              fieldPath: metadata.name
        - name: POD_NAMESPACE
          valueFrom:
            fieldRef:
              fieldPath: metadata.namespace
        - name: EVENT_QUEUE_DEPTH
          value: "5000"
        volumeMounts:
        - name: run
          mountPath: /run/flannel
        - name: flannel-cfg
          mountPath: /etc/kube-flannel/
        - name: xtables-lock
          mountPath: /run/xtables.lock
      volumes:
      - name: run
        hostPath:
          path: /run/flannel
      - name: cni-plugin
        hostPath:
          path: /opt/cni/bin
      - name: cni
        hostPath:
          path: /etc/cni/net.d
      - name: flannel-cfg
        configMap:
          name: kube-flannel-cfg
      - name: xtables-lock
        hostPath:
          path: /run/xtables.lock
          type: FileOrCreate

重新加载,再次查看

[root@m72 ~]# kubectl apply -f  kube-flannel.yml 


[root@m72 ~]# kubectl get nodes
NAME   STATUS   ROLES    AGE   VERSION
m72    Ready    master   38m   v1.22.4

2.7 其他节点加入集群

其他节点分别执行

yum -y install kubelet-1.22.4 kubeadm-1.22.4 kubectl-1.22.4

加入开机自启动

systemctl enable kubelet.service

创建文件夹

mkdir images

主节点复制镜像文件

[root@m72 ~]# cd kubeadm-basic.images
[root@m72 kubeadm-basic.images]# scp * s73:/root/images/
[root@m72 kubeadm-basic.images]# scp * s73:/root/images/

回到s73从节点,docker加入上述镜像

docker load -i xxx.tar

最后s73执行之前打印的加入语句

kubeadm join 10.220.15.72:6443 --token cralff.5gzyqjx8jirtta2c \
    --discovery-token-ca-cert-hash sha256:d72a9456b0ccb8e2bbdf58ae735410249ec9d6dfb641aa9e38e60e336de6d5bc 

提示已加入, 查看主节点

[root@m72 ~]# kubectl get nodes
NAME   STATUS   ROLES    AGE     VERSION
m72    Ready    master   3h7m    v1.22.4
s73    Ready    <none>   8m32s   v1.22.4

s73节点加入成功,同理加入s74节点,集群部署完成

3.k8s网络环境重置

        实际k8s使用环境中可能会出现集群网络环境变动的情况,这时候我们就需要调整集群部署了

首先更新好每台机器节点hosts文件,然后调整k8s配置

每个节点执行重置

kubeadm reset

主节点执行配置文件删除

rm -rf $HOME/.kube

重新执行配置初始化,主要是更改apiserver的配置为新的ip地址

kubeadm init \
--kubernetes-version=v1.22.4 \
--pod-network-cidr=10.244.0.0/16 \
--image-repository registry.aliyuncs.com/google_containers \
--service-cidr=10.96.0.0/12 \
--apiserver-advertise-address=${newIp}

复制kube配置文件

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

根据kubeadm init生成的kubeadm join语句在从节点重新执行一遍加入步骤即可,

执行kubectl get nodes查看节点信息

kubectl get nodes

如果有从节点显示notready,更改从节点配置,执行

vi /var/lib/kubelet/kubeadm-flags.env

删除以下配置

--network-plugin=cni

重启服务

systemctl daemon-reload
systemctl restart kubelet

搭建 Kubernetes 集群可以分为以下几个步骤: 1. 确保所有节点上安装了 Docker 和 kubelet,并启动服务。 2. 安装 kubeadm、kubectl 和 kubelet 工具。 3. 在主节点上使用 kubeadm 初始化 Kubernetes 集群。 4. 加入其他节点集群中。 5. 部署网络插件。 具体步骤如下: 1. 确保所有节点上安装了 Docker 和 kubelet,并启动服务。 在每个节点上执行以下命令安装依赖项: ``` sudo apt-get update sudo apt-get install -y apt-transport-https curl ``` 安装 Docker: ``` curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" sudo apt-get update sudo apt-get install -y docker-ce ``` 启动 Docker 服务: ``` sudo systemctl enable docker sudo systemctl start docker ``` 安装 kubelet: ``` sudo apt-get update && sudo apt-get install -y apt-transport-https curl curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add - cat <<EOF | sudo tee /etc/apt/sources.list.d/kubernetes.list deb https://apt.kubernetes.io/ kubernetes-xenial main EOF sudo apt-get update sudo apt-get install -y kubelet ``` 启动 kubelet 服务: ``` sudo systemctl enable kubelet sudo systemctl start kubelet ``` 2. 安装 kubeadm、kubectl 和 kubelet 工具。 在每个节点上安装 kubeadm、kubectl 和 kubelet 工具: ``` sudo apt-get update && sudo apt-get install -y apt-transport-https curl curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add - cat <<EOF | sudo tee /etc/apt/sources.list.d/kubernetes.list deb https://apt.kubernetes.io/ kubernetes-xenial main EOF sudo apt-get update sudo apt-get install -y kubelet kubeadm kubectl ``` 3. 在主节点上使用 kubeadm 初始化 Kubernetes 集群。 在主节点上执行以下命令初始化 Kubernetes 集群: ``` sudo kubeadm init --pod-network-cidr=10.244.0.0/16 ``` 初始化完成后,会输出一个类似这样的提示: ``` kubeadm join 192.168.0.100:6443 --token abcdef.0123456789abcdef \ --discovery-token-ca-cert-hash sha256:0123456789abcdef0123456789abcdef0123456789abcdef0123456789abcdef ``` 将这个命令保存下来,后面加入其他节点时需要使用。 4. 加入其他节点集群中。 在每个节点上执行第一步中的命令,然后使用第三步中得到的加入命令加入到集群中: ``` sudo kubeadm join 192.168.0.100:6443 --token abcdef.0123456789abcdef \ --discovery-token-ca-cert-hash sha256:0123456789abcdef0123456789abcdef0123456789abcdef0123456789abcdef ``` 5. 部署网络插件。 Kubernetes 集群需要网络插件才能实现节点之间的通信。这里以 Calico 为例,执行以下命令部署 Calico 网络插件: ``` kubectl apply -f https://docs.projectcalico.org/v3.14/manifests/calico.yaml ``` 部署完成后,可以使用以下命令查看节点状态: ``` kubectl get nodes ``` 如果所有节点都处于 Ready 状态,那么 Kubernetes 集群搭建完成了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值