k8s学习笔记一集群部署

基础环境配置

主机配置:32G运行内存,共创建四个虚拟机,虚拟机配置如下:

主机名系统配置IP
k8s-mastercentos72c 4Gb *100Gb192.168.204.133
k8s-node01centos72c 4Gb *100Gb192.168.204.130
k8s-node02centos72c 4Gb *100Gb192.168.204.131
k8s-huborcentos72c 4Gb *100Gb192.168.204.132

修改主机名:

hostnamectl set-hostname k8s-master01
hostnamectl set-hostname k8s-node01
hostnamectl set-hostname k8s-node02
hostnamectl set-hostname k8s-harbor

修改hosts配置文件

  大型环境中,建议通过DNS主机名和ip进行关联;但在小环境的练习中,&可以直接修改hosts文件,来进行主机名和ip地址的解析(用DNS解析的话,如果DNS死掉,整个集群也会跟着不能用)
  vi /etc/hosts 添加各个虚拟机的IP地址,在一个master节点和两个node节点都修改相同的内容,如下:

192.168.204.133 k8s-master01
192.168.204.130 k8s-node01
192.168.204.131 k8s-node02
可以在master节点修改host文件之后用scp命令拷贝到其他的节点。

安装依赖包

  利用yum命令安装相关的依赖包:

yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools git

关闭防火墙并未Iptables设置空规则

systemctl stop firewalld && systemctl disable firewalld
yum -y install iptables-services && systemctl start iptables && systemctl enable iptables && iptables -F && service iptables save

关闭swap分区和linux虚拟内存

  kubeadm安装k8s集群的时候,init初始化时会检测swap分区有没有关闭,如果开启虚拟内存,pod有可能会被放在虚拟内存中运行,会降低工作效率,因此会强制要求关闭swao分区(也可以通过–ingress来排除该项报错)。

swapoff -a && sed -i ‘/ swap / s/^(.)$/#\1/g’ /etc/fstab
setenforce 0 && sed -i 's/^SELINUX=.
/SELINUX=disable/’ /etc/selinux/config

调整内核参数

cat > kubernetes.conf << EOF
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
net.ipv4.tcp_tw_recycle=0
vm.swappiness=0 # 禁止使用 swap 空间,只有当系统 OOM 时才允许使用它
vm.overcommit_memory=1 # 不检查物理内存是否够用
vm.panic_on_oom=0 # 开启 OOM
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
EOF

cp kubernetes.conf /etc/sysctl.d/kubernetes.conf #开机调用
sysctl -p /etc/sysctl.d/kubernetes.conf #立即生效

执行sysctl 指令时会报如下错误,原因是没有br_netfilter模块:
在这里插入图片描述执行命令modprobe br_netfilter 加载模块,然后在执行sysctl命令;

调整系统时区

#设置系统时区为 中国/上海
timedatectl set-timezone Asia/Shanghai
#将当前的 UTC 时间写入硬件时钟
timedatectl set-local-rtc 0
重启依赖于系统时间的服务
systemctl restart rsyslog
systemctl restart crond

关闭系统不需要服务

关闭系统的邮件服务,尽可能的较少系统资源占用空间

systemctl stop postfix && systemctl disable postfix

设置日志方案

mkdir /var/log/journal # 持久化保存日志的目录
mkdir /etc/systemd/journald.conf.d 

cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF
[Journal]
#持久化保存到磁盘
Storage=persistent
#压缩历史日志
Compress=yes
SyncIntervalSec=5m
RateLimitInterval=30s
RateLimitBurst=1000
#最大占用空间 10G
SystemMaxUse=10G
#单日志文件最大 200M
SystemMaxFileSize=200M
#日志保存时间 2 周
MaxRetentionSec=2week
#不将日志转发到 syslog
ForwardToSyslog=no
EOF
systemctl restart systemd-journald

内核版本升级

更新yum源仓库

yum -y update

  • 安装 ELRepo 源:

rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm

  • 启用 ELRepo 源仓库:

yum --disablerepo="*" --enablerepo=“elrepo-kernel” list available

  • 安装新内核:

yum -y --enablerepo=elrepo-kernel install kernel-ml kernel-ml-devel

  • 查看当前内核版本:

cat /boot/grub2/grub.cfg |grep menuentry

  • 本文升级的最新版本为5.9.8-1.el7.elrepo.x86_64
    升级版本之后需要把最新的版本设置为默认启动版本:

grub2-set-default ‘Oracle Linux Server (5.9.8-1.el7.elrepo.x86_64) 7 (Core)’

  • 然后在删除旧版本内核
    升级之后更新yum环境:

yum update

kubeadm部署安装

kube-proxy开启ipvs的前置条件

cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe – ip_vs
modprobe – ip_vs_rr
modprobe – ip_vs_wrr
modprobe – ip_vs_sh
modprobe – nf_conntrack_ipv4
EOF

然后执行命令:

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4

执行该命令引入模块时报错:
在这里插入图片描述
缺少模块 nf_conntrack_ipv4,这里先暂时忽略该错误,自己也不确定是否影响ipvs服务开启。

安装docker软件

安装docker镜像依赖-存储驱动:

sudo yum install -y yum-utils device-mapper-persistent-data lvm2

导入阿里云docker-ce镜像仓库:

sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

安装docker-ce:

yum install docker-ce
启动docker:
systemctl start docker

设置开机自启:

systemctl enable docker

配置镜像加速deamon:

vi /etc/docker/daemon.json
{
“registry-mirrors”: [“https://4bsnyw1n.mirror.aliyuncs.com”],
“exec-opts”:[“native.cgroupdriver=systemd”]
}

重启docker

systemctl daemon-reload && systemctl restart docker

安装kubeadm

导入阿里云的yum仓库:

cat < /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

在每个节点安装kubeadm、kubectl、kubelet
安装初始化工具、命令行管理工具、与docker的cri交互创建容器kubelet

yum -y install kubeadm kubectl kubelet – disableexcludes=kubernetes

k8s开机自启

systemctl enable kubelet.service & systemctl start kubelet.service

k8s组件容器部署

k8s所需镜像下载:

Kubernetes几乎所有的安装组件和Docker镜像都放在goolge自己的网站上,因网络问题无法直接访问,可以从阿里云镜像仓库下载镜像,拉取到本地以后改回默认的镜像tag。本文通过运行https://blog.csdn.net/weixin_36625300/article/details/108697078提供的image.sh脚本方式拉取镜像。
cat image.sh

#!/bin/bash
url=registry.aliyuncs.com/google_containers
version=v1.19.2
images=(kubeadm config images list --kubernetes-version=$version|awk -F '/' '{print $2}')
for imagename in ${images[@]} ; do
docker pull u r l / url/ url/imagename
docker tag u r l / url/ url/imagename k8s.gcr.io/$imagename
docker rmi -f u r l / url/ url/imagename
done

初始化文件配置:

kubeadm config print init-defaults > kubeadm-config.yaml 
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
  - groups:
  - system:bootstrappers:kubeadm:default-node-token   
  token: abcdef.0123456789abcdef
  ttl: 24h0m0s
  usages:
  - signing
  - authentication
kind: InitConfiguration
localAPIEndpoint:
  advertiseAddress: 192.168.204.133
  bindPort: 6443
nodeRegistration:
  criSocket: /var/run/dockershim.sock
  name: k8s-master01
  taints:
  - effect: NoSchedule
    key: node-role.kubernetes.io/master
---
apiServer:
timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:
  type: CoreDNS
etcd:
  local:
    dataDir: /var/lib/etcd
imageRepository: k8s.gcr.io
kind: ClusterConfiguration
kubernetesVersion: v1.19.2
networking:
  dnsDomain: cluster.local
  podSubnet: "10.244.0.0/16"
  serviceSubnet: 10.96.0.0/12
scheduler: {}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
featureGates:
  SupportIPVSProxyMode: true
mode: ipvs

执行初始化命令:

kubeadm init --config=kubeadm-config.yaml | tee kubeadm-init.log

初始化成功之后按照提示依次执行命令:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf HOME/.kube/config
sudo chown ( i d − u ) : (id -u): (idu):(id -g) $HOME/.kube/config

此时在master节点执行kubectl get node可以看到节点状态为:在这里插入图片描述
此时为NotReady状态,原因是因为集群还没有部署flannel网络;

部署flannel网络插件:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube- flannel.yml

因网络问题,无法直接下载成功,可以先访问https://tool.chinaz.com/dns/?type=1&host=raw.githubusercontent.com&ip=查看raw.githubusercontent.com的真实IP,
并在宿主机的/etc/hosts中添加地址解析之后即可下载:

cat >> /etc/hosts << EOF
151.101.108.133 raw.githubusercontent.com
EOF

成功部署flannel网络之后,master节点即变为了ready状态。

加入node节点

在子节点中执行:

kubeadm join 192.168.204.133:6443 --token abcdef.0123456789abcdef
–discovery-token-ca-cert-hash sha256:0381ce230d0678ec26d15ec7910f0962e251711232fd11d247e6f205f83aa814

此时执行kubectl get node即可看到所加入的节点: 在这里插入图片描述
注意:子节点中也会启动flannel容器,所以在加入子节点之前,该节点要存在flannel镜像,由于网络问题,不能直接下载,可以采取前文中的镜像下载脚本下载该镜像。
至此,k8s集群已完成部署,感谢尚硅谷所提供的k8s学习视频,下一篇将实践操作harbor仓库的部署!

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值