HostPath可以解决数据持久化的问题,但是一旦Node节点故障了,Pod如果转移到了别的节点,又会出现问题了,此时需要准备单独的网络存储系统,比较常用的用NFS、CIFS。
NFS是一个网络文件存储系统,可以搭建一台NFS服务器,然后将Pod中的存储直接连接到NFS系统上,这样的话,无论Pod在节点上怎么转移,只要Node跟NFS的对接没问题,数据就可以成功访问。
1)首先要准备nfs的服务器,这里为了简单,直接是master节点做nfs服务器
mkdir -p 可以在新的子目录中创建一个新的子目录。举例:
mkdir -p about/abc/def 可以递级创建新的三个目录。
如果想看看mkdir到底做了什么,可以添加选项“-v”,
192.168.1.0/24表示网段是192.168.1.0,子网掩码是24位,子网掩码为:255.255.255.0,
# 在nfs上安装nfs服务
yum install nfs-utils -y
# 准备一个共享目录
mkdir /root/data/nfs -pv
# 将共享目录以读写权限暴露给192.168.10.0/24网段中的所有主机
vim /etc/exports
more /etc/exports
# /root/data/nfs 192.168.10.0/24(rw,no_root_squash)
# 启动nfs服务
systemctl restart nfs
2)接下来,要在的每个node节点上都安装下nfs,这样的目的是为了node节点可以驱动nfs设备
# 在node上安装nfs服务,注意不需要启动
yum install nfs-utils -y
3)接下来,就可以编写pod的配置文件并apply
cat >test.yaml <<EOF
apiVersion: v1
kind: Pod
metadata:
name: volume-nfs
namespace: dev
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
volumeMounts:
- name: logs-volume
mountPath: /var/log/nginx
- name: busybox
image: busybox:1.30
command: ["/bin/sh","-c","tail -f /logs/access.log"]
volumeMounts:
- name: logs-volume
mountPath: /logs
volumes:
- name: logs-volume
nfs:
server: 192.168.10.100 #nfs服务器地址,这里用master做nfs服务器
path: /root/data/nfs #共享文件路径
EOF
创建pod后,访问任何1个nginx,在下面这些目录都可以看到访问日志:
1,pod的nginx的 /var/log/nginx/access.log
2,pod的busybox的 /logs/access.log
3,运行kubectl logs pod名 -n dev -c busybox -f
4,nfs服务器的/root/data/nfs/access.log
这些路径下如果一开始就有文件,其他路径会创建相同的文件。