【kubernetes】kubeadm安装多master节点的k8s集群

1、概述

在这里插入图片描述

K8s主要分为master节点(控制节点)和node节点(运行容器pod),master节点中有apiserver、controller manager、scheduler和etcd几个主要组件,node节点一般有kubelet、kube-proxy、pod、还有网络插件等等。

K8s简单的工作流程:

1、用户通过kubectl提交需要运行的docker container(pod);
2、master节点的api server把请求存储在etcd数据库中;
3、scheduler调度器进行扫描 ,将合适的node节点机器分配出去;
4、node节点的kublet找到自己要跑的container,在本机上运行。

k8s核心功能:

1、自愈: 重新启动失败的容器,在节点不可用时,替换和重新调度节点上的容器,对用户定义的健康检查不响应的容器会被中止,并且在容器准备好服务之前不会把其向客户端广播。
2、弹性伸缩: 通过监控容器的cpu的负载值,如果这个平均高于80%,增加容器的数量,如果这个平均低于10%,减少容器的数量。
服务的自动发现和负载均衡: 不需要修改您的应用程序来使用不熟悉的服务发现机制,k8s为容器提供了自己的IP地址和一组容器的单个DNS 名称,并可以在它们之间进行负载均衡。
3、滚动升级和一键回滚: k8s逐渐部署对应用程序或其配置的更改,同时监视应用程序运行状况,以确保它不会同时终止所有实例。 如果出现问题,k8s会为您恢复更改,利用日益增长的部署解决方案的生态系统。
4、私密配置文件管理: web容器里面,数据库的账户密码(测试库密码)。

2、基础配置

2.1、服务器配置

在这里插入图片描述
在这里插入图片描述
修改所有主机hostname如上表,参考即可,根据自己实际情况处理

hostnamectl set-hostname master01

配置IP地址,参考即可,根据自己实际情况处理

# vim  /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="none"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="yes"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="8d2ff878-454e-48ca-8cf4-9ef5f987a3d2"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.2.81"  唯一修改的地方
PREFIX="24"
GATEWAY="192.168.2.2"
DNS1="114.114.114.114"
IPV6_PRIVACY="no"

2.2、在master01–免密其他服务器和配置hosts

由于很多操作在master01节点进行操作,方便传输文件,建议master01节点免密其他节点,由于是一些初始化操作,在本次搭建中都是使用的root用户,搭建完成后,在使用过程中建议使用普通用户sudo使用。

[root@master01 ~]# ssh-keygen 
[root@master01 ~]# ssh-copy-id  192.168.2.82
[root@master01 ~]# ssh-copy-id  192.168.2.83
[root@master01 ~]# ssh-copy-id  192.168.2.84
[root@master01 ~]# ssh-copy-id  192.168.2.85
[root@master01 ~]# vim /etc/hosts
192.168.2.81 master01
192.168.2.82 master02
192.168.2.83 master03
192.168.2.84 node01
192.168.2.85 node02

2.3、所有节点时间同步

# yum install -y ntp ntpdate
# crontab  -e
*/5 * * * * ntpdate cn.pool.ntp.org

2.4、所有节点修改内核参数

[root@master01 ~]# modprobe br_netfilter
[root@master01 ~]# echo "modprobe br_netfilter" >> /etc/profile
[root@master01 ~]# cat > /etc/sysctl.d/k8s.conf <
> net.bridge.bridge-nf-call-ip6tables = 1 
> net.bridge.bridge-nf-call-iptables = 1 
> net.ipv4.ip_forward = 1 
> EOF
[root@master01 ~]# sysctl -p /etc/sysctl.d/k8s.conf

2.5、所有节点关闭防火墙和selinux

[root@master01 ~]#  systemctl stop firewalld ; systemctl disable firewalld
[root@master01 ~]# sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

2.6、所有节点加载docker和kubeletYUM源

配置YUM需要的命令,一般情况下,最小化安装系统是没有这个命令的

[root@master01 ~]# yum -y install yum-utils
配置dockerYUM源
[root@master01 ~]# yum-config-manager --add-repo  http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
配置kubeadmYUM源
[root@master01 ~]# vi /etc/yum.repos.d/kubernetes.repo 
[kubernetes] 
name=Kubernetes 
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/ 
enabled=1 
gpgcheck=0
刷新YUM源
[root@master01 ~]# yum clean all
[root@master01 ~]# yum repolist

2.7、开启IPVS

安装rz命令,用于上传配置
[root@master01 modules]# yum install -y lrzsz
[root@master01 ~]# cd /etc/sysconfig/modules/
[root@master01 ~]# chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs

在这里插入图片描述

3、基础包部署-docker

3.1、所有节点-基础依赖包

[root@master01 ~]#  yum install -y yum-utils device-mapper-persistent-data lvm2  wget net-tools nfs-utils lrzsz gcc gcc-c++ make cmake libxml2-devel openssl-devel curl  curl-devel unzip sudo  libaio-devel wget vim ncurses-devel autoconf automake zlidevel python-devel epel-release openssh-server socat ipvsadm conntrack  telnet ipvsadm

3.2、docker部署

[root@master01 ~]# yum install docker-ce docker-ce-cli containerd.io
[root@master01 ~]# systemctl start docker
[root@master01 ~]# systemctl enable docker

3.3、配置docker镜像加速器和驱动

[root@master01 ~]#  vim /etc/docker/daemon.json

在这里插入图片描述

[root@master01 ~]# systemctl daemon-reload && systemctl restart docker

3.4、部署kubeadm相关软件包

[root@master01 ~]# yum install -y kubelet-1.23.5 kubeadm-1.23.5 kubectl-1.23.5  
(特别注意1.24.0之后版本无法docker)
[root@master01 ~]# systemctl enable kubelet &&  systemctl start kubelet

4、高可用设计keepalived+nginx

4.1、架构概述

keeplived主要实现功能高可用和VIP,nginx主要实现api-server负载均衡,所以根据master节点,设置三个节点,并且和kubernetes的master节点部署在同样三台服务器上。

4.2、部署nginx(所有master节点)

[root@master01 ~]# tar -xf nginx-1.16.1.tar.gz
[root@master01 ~]# cd nginx-1.16.1
[root@master01 nginx-1.16.1]# ./configure  --prefix=/usr/local/nginx --with-stream
[root@master01 nginx-1.16.1]# make && make install
[root@master01 ~]# cd /usr/local/nginx/conf/
[root@master01 conf]# cp nginx.conf nginx.confbak
[root@master01 conf]# vim nginx.conf(三个master节点一致)

在这里插入图片描述

[root@master01 ~]# mkdir /var/log/nginx/  && useradd nginx
[root@master01 ~]# /usr/local/nginx/sbin/nginx  -t
启动脚本
[root@master01 ~]# vim /etc/init.d/nginx

在这里插入图片描述

[root@master01 ~]# chmod +x /etc/init.d/nginx
[root@master01 ~]# /etc/init.d/nginx

4.3、部署keepalived(所有master节点)

[root@master01 ~]# tar -xf keepalived-2.2.7.tar.gz
[root@master01 ~]# cd keepalived-2.2.7 
[root@master01 keepalived-2.2.7]# ./configure --prefix=/usr/local/keepalived
[root@master01 keepalived-2.2.7]# make && make install
启动脚本
[root@master01 ~]# vim /etc/init.d/keepalived

在这里插入图片描述
前方高能特别注意:VIP地址根据自己实际情况填写

配置文件特别注意:
[root@master01 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

在这里插入图片描述

[root@master02 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

在这里插入图片描述

[root@master03 ~]# vim /usr/local/keepalived/etc/keepalived/keepalived.conf

在这里插入图片描述

[root@master01 ~]# /etc/init.d/keepalived start

查看VIP情况,一般情况下在master01节点查询即可

[root@master01 ~]# ip addr

在这里插入图片描述

5、kubeadm部署kubernetes

5.1、在master01初始化

在master01进行初始化操作

[root@master01 ~]# more kubeadm-config.yaml

下图中的红框部分根据实际情况填写,kubernetes版本号可以根据:

[root@master01 ~]# kubectl  version
Client Version: version.Info{Major:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:58:47Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"23", GitVersion:"v1.23.5", GitCommit:"c285e781331a3785a7f436042c65c5641ce8a9e9", GitTreeState:"clean", BuildDate:"2022-03-16T15:52:18Z", GoVersion:"go1.17.8", Compiler:"gc", Platform:"linux/amd64"}

在这里插入图片描述

[root@master01 ~]# kubeadm init --config kubeadm-config.yaml --ignore-preflight-errors=SystemVerification

如下图表示正确完成初始化:
在这里插入图片描述

5.2、添加相应的master节点和node节点

将master节点相关证书拷贝至master02-03

[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.82:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.82:/etc/kubernetes/pki/etcd/
[root@master01 ~]# scp /etc/kubernetes/pki/ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/sa.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/front-proxy-ca.* 192.168.2.83:/etc/kubernetes/pki/
[root@master01 ~]# scp /etc/kubernetes/pki/etcd/ca.* 192.168.2.83:/etc/kubernetes/pki/etcd/

在master02-03节点执行以下命令

[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \
        --discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef \
        --control-plane

在node01-02节点执行以下命令

[root@master01 ~]# kubeadm join 192.168.2.80:16443 --token eeu9yc.v4uaf0zyrm2qi7qf \
        --discovery-token-ca-cert-hash sha256:683094c96357c5b47adcacf6937465347f1bd6286b7b6ba364ef7e5e4763beef

打上work节点标记

[root@master01 ~]#  kubectl label node node01 node-role.kubernetes.io/worker=worker
node/node01 labeled
[root@master01 ~]#  kubectl label node node02 node-role.kubernetes.io/worker=worker
node/node02 labeled
[root@master01 ~]# kubectl  get nodes
NAME       STATUS   ROLES                  AGE    VERSION
master01   Ready    control-plane,master   3d5h   v1.23.5
master02   Ready    control-plane,master   3d4h   v1.23.5
master03   Ready    control-plane,master   3d4h   v1.23.5
node01     Ready    worker                 3d4h   v1.23.5
node02     Ready    worker                 3d4h   v1.23.5

执行完成如下图:
在这里插入图片描述

5.3、添加calico网络插件

缺少网络插件,在master01节点执行如下命令

[root@master01 ~]# kubectl  apply -f calico.yaml

执行成功后,如下图:
在这里插入图片描述

5.4、检测dns

[root@master01 ~]#  kubectl run busybox --image busybox:1.28 --restart=Never --rm  -it busybox -- sh

在这里插入图片描述

5.5、检查集群可用性—tomcat服务

将tomcat服务镜像上传至node01-02节点

[root@node01 ~]# docker load -i tomcat.tar.gz
[root@node02 ~]# docker load -i tomcat.tar.gz

在master01节点执行

[root@master01 ~]# kubectl  apply  -f tomcat.yaml 
pod/demo-pod created
[root@master01 ~]# kubectl  apply -f tomcat-service.yaml 
service/tomcat created

在这里插入图片描述
在浏览器访问,特别注意:因为所有节点都部署kube-proxy组件,所以所有节点IP地址+端口30080都是可以访问tomcat这个主页的,也包括VIP
在这里插入图片描述

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值