一、硬件要求
- CPU ≥ 2核
- 内存 ≥ 3G
- 硬盘 ≥ 50G
二、内核修改
1. 配置阿里云yum源
# 如果你的电脑已经配置了国内 yum 请忽略这个部分
# 下载安装wget
yum install -y wget
# 备份默认的yum
mv /etc/yum.repos.d /etc/yum.repos.d.backup
# 设置新的yum目录
mkdir -p /etc/yum.repos.d
# 下载阿里yum配置到该目录中,选择对应版本
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
# 更新epel源为阿里云epel源
mv /etc/yum.repos.d/epel.repo /etc/yum.repos.d/epel.repo.backup
mv /etc/yum.repos.d/epel-testing.repo /etc/yum.repos.d/epel-testing.repo.backup
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
# 重建缓存
yum clean all
yum makecache
# 更新yum
yum update
2. 升级系统内核(建议 kernel 4.4 以上)
# 安装新版 kernel
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm
yum --enablerepo=elrepo-kernel install -y kernel-lt
# 查看系统内核启动顺序
grep initrd16 /boot/grub2/grub.cfg
# 设置新内核为第一个启动
grub2-set-default 0
# 重启
reboot
三、系统配置
1. 系统基本信息查看
# 查看 CentOS 系统内核
uname -a
# 查看 CPU 信息
lscpu
# 查看内存信息
free -h
# 查看硬盘信息
fdisk -l
2. 配置修改
# 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
# 关闭selinux
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinux
setenforce 0
# 网桥过滤
vi /etc/sysctl.conf
在最后一行添加如下内容:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.bridge.bridge-nf-call-arptables = 1
net.ipv4.ip_forward=1
net.ipv4.ip_forward_use_pmtu = 0
# 让修改生效
sysctl --system
# 查看效果(正确如下图所示)
sysctl -a|grep "ip_forward"
3. 开启IPVS
# 安装IPVS
yum -y install ipset ipvsdm
# 编辑 ipvs.modules 文件
vi /etc/sysconfig/modules/ipvs.modules
文件内添加如下内容:
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
# 赋予权限并执行
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules &&lsmod | grep -e ip_vs -e nf_conntrack_ipv4
# 重启电脑,检查是否生效(如下图表示安装成功)
reboot
lsmod | grep ip_vs_rr
4. 关闭swap分区
# 临时关闭:
swapoff -a
# 永久关闭:
vi /etc/fstab
# 将文件中的/dev/mapper/centos-swap这行代码注释掉
#/dev/mapper/centos-swap swap swap defaults 0 0
# 确认swap已经关闭:若swap行都显示 0 则表示关闭成功
free -m
5. 同步时间
# 安装软件
yum -y install ntpdate
# 向阿里云服务器同步时间
ntpdate time1.aliyun.com
# 删除本地时间并设置时区为上海(如果已经是上海时间可以跳过次步)
rm -rf /etc/localtime
ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
# 查看时间
date -R || date
6. 命令补全
# 安装bash-completion
yum -y install bash-completion bash-completion-extras
# 使用bash-completion
source /etc/profile.d/bash_completion.sh
7. Docker 安装
8. 修改Cgroup Driver
vim /etc/docker/daemon.json
内容如下:
{
"registry-mirrors": ["https://你的加速器地址.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"]
}
# 重启docker服务:
systemctl daemon-reload
systemctl restart docker
# 查看修改后状态:
docker info | grep Cgroup
Tips:修改cgroupdriver是为了消除安装k8s集群时的告警
[WARNING IsDockerSystemdCheck]:
detected “cgroupfs” as the Docker cgroup driver. The recommended driver is “systemd”.
Please follow the guide at https://kubernetes.io/docs/setup/cri/…
四、安装 Kubernetes
1. 安装 yum 源
vi /etc/yum.repos.d/kubernates.repo
文件内容:
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
2. 更新缓存
yum clean all
yum -y makecache
3. 验证源是否可用
yum list | grep kubeadm
Tips:如果提示要验证yum-key.gpg是否可用,输入y。
4. 查看k8s版本
yum list kubelet --showduplicates | sort -r
5. 安装k8s-1.17.5
yum install -y kubelet-1.17.5 kubeadm-1.17.5 kubectl-1.17.5
五、设置kubelet
1. 增加配置信息
Tips:如果不配置kubelet,可能会导致K8S集群无法启动。为实现docker使用的cgroupdriver与kubelet使用的cgroup的一致性。
# 编辑 kublet 配置文件
vi /etc/sysconfig/kubelet
# 文件内容
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"
#设置开机启动
systemctl enable kubelet
六、初始化镜像
1. 安装 k8s 镜像
编写执行脚本
由于k8s的官方镜像在国外我们无法访问,所以通过编写脚本来从阿里云获取 docker
镜像。
# 创建脚本存放目录
mkdir -p /data
cd /data
# 创建初始化镜像脚本
vi initImages.sh
脚本内容
#!/bin/bash
# 下面的镜像应该去除"k8s.gcr.io"的前缀,版本换成kubeadm config images list命令获取到的版本
images=(
kube-apiserver:v1.17.5
kube-controller-manager:v1.17.5
kube-scheduler:v1.17.5
kube-proxy:v1.17.5
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)
for imageName in ${images[@]} ;
do
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done
# 给脚本授权
chmod +x initImages.sh
# 执行脚本
./initImages.sh
导出镜像
docker save -o k8s.1.17.5.tar \
k8s.gcr.io/kube-proxy:v1.17.5 \
k8s.gcr.io/kube-apiserver:v1.17.5 \
k8s.gcr.io/kube-controller-manager:v1.17.5 \
k8s.gcr.io/kube-scheduler:v1.17.5 \
k8s.gcr.io/coredns:1.6.5 \
k8s.gcr.io/etcd:3.4.3-0 \
k8s.gcr.io/pause:3.1
Tips:k8s
集群中 Master
节点需要上面的所有镜像,但是在 Node
节点中,就只需要安装 kube-proxy:v1.17.5
和pause:3.1
这两个镜像。
2. 配置k8s集群网络配置
# 官网下载地址:(保存下来,待会要用)
https://docs.projectcalico.org/v3.14/manifests/calico.yaml
# github地址:
https://github.com/projectcalico/calico
# 镜像下载:
docker pull calico/cni:v3.14.2
docker pull calico/pod2daemon-flexvol:v3.14.2
docker pull calico/node:v3.14.2
docker pull calico/kube-controllers:v3.14.2
导出镜像
docker save > calico.3.14.2.tar \
calico/cni:v3.14.2 \
calico/pod2daemon-flexvol:v3.14.2 \
calico/node:v3.14.2 \
calico/kube-controllers:v3.14.2
修改 hosts
文件
# 打开 hosts 文件
vim /etc/hosts
# 追加如下配置
192.168.32.102 k8s-master
192.168.32.103 k8s-node1
192.168.32.104 k8s-node2
192.168.32.105 k8s-node3
# 设置 hostname
hostnamectl set-hostname k8s-master
# 修改 IP 地址
vim /etc/sysconfig/network-scripts/ifcfg-ens33
# 重启网络服务
service network restart
Tips:由于本次搭建的是k8s集群,所以复制出四台虚拟机进行搭建。注意每台机器的 IP
、hostname
必须和 hosts
文件中的内容所对应。
七、初始化集群网络
# 初始化 Master 节点
kubeadm init --apiserver-advertise-address=192.168.32.102 --kubernetes-version v1.17.5 --service-cidr=10.1.0.0/16 --pod-network-cidr=10.81.0.0/16
1. master节点集群配置
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
2. node节点加入集群信息
# 该内容来自上面一张图,每个人的不一样。获取到该内容后在三个 node 节点上分别执行
kubeadm join 192.168.32.102:6443 --token bikn5k.7z4n9ckzy9vwsw99 \
--discovery-token-ca-cert-hash sha256:19469243c67358dae00f8778e7013ac0f0cb3993a2a0c059003867a3bd8c0e60
看到下图表示 node
节点加入集群成功
3. 配置集群网络
# 将之前保存的 calico.yaml 文件上传至 /data 目录后执行如下命令
kubectl apply -f calico.yaml
# 查看集群
kubectl get nodes
Tips:集群状态的准备过程比较慢,需要耐心等待。等看到四个 ready
就表示集群搭建完成了。
4. kubectl命令自动补全
echo "source <(kubectl completion bash)" >> ~/.bash_profile
source ~/.bash_profile
------------------------------------ 黄昏之所以壮丽,是因为它收集了一天的阳光。 ------------------------------------