前言
之前我们有提到数据卷:emptydir ,是本地存储,pod重启,数据就不存在了,需要对数据持久化存储
对于数据持久化存储【pod重启,数据还存在】
- nfs:网络存储【通过一台服务器来存储】
步骤
持久化服务器上操作
- 找一台新的服务器nfs服务端,安装nfs
- 设置挂载路径
使用命令安装nfs
[root@k8s-master ~]$ yum install -y nfs-utils
首先创建存放数据的目录
[root@k8s-master ~]$ mkdir -p /data/nfx
设置挂载路径
# 打开文件
[root@k8s-master ~]$ vim /etc/exports
# 添加如下内容
/data/nfs *(rw,no_root_squash)
执行完成后,即部署完持久化服务器
Node节点上操作
然后需要在k8s集群node节点上安装nfs,这里需要在 node1 和 node2节点上安装
[root@k8s-node ~]$ yum install -y nfs-utils
执行完成后,会自动帮我们挂载上
启动nfs服务端
[root@k8s-master ~]$ systemctl start nfs
K8s集群部署应用
最后我们在k8s集群上部署应用,使用nfs持久化存储
# 创建一个pv文件
[root@k8s-master ~]$ mkdir pv
# 进入
[root@k8s-master ~]$ cd pv
然后创建一个yaml文件 nfs-nginx.yaml
[root@k8s-master ~]$ cat > nfs-nginx.yaml << EOF
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-dep1
spec:
replicas: 1
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
volumeMounts:
- name: wwwroot
mountPath: /usr/share/nginx/html
ports:
- containerPort: 80
volumes:
- name: wwwroot
nfs:
server: 192.168.88.10
path: /data/nfs
EOF
通过这个方式,就挂载到了刚刚我们的nfs数据节点下的 /data/nfs 目录
最后就变成了: /usr/share/nginx/html -> 192.168.88.10/data/nfs 内容是对应的
通过这个 yaml文件,创建一个pod
[root@k8s-master ~]$ kubectl apply -f nfs-nginx.yaml
创建完成后,我们也可以查看日志
[root@k8s-master ~]$ kubectl describe pod nginx-dep1
下面我们就可以进行测试了,比如现在nfs服务节点上添加数据,然后在看数据是否存在 pod中
# 进入pod中查看
[root@k8s-master ~]$ kubectl exec -it nginx-dep1 bash
PV和PVC
对于上述的方式,我们都知道,我们的ip 和端口是直接放在我们的容器上的,这样管理起来可能不方便
所以这里就需要用到 pv 和 pvc的概念了,方便我们配置和管理我们的 ip 地址等元信息
-
PV:持久化存储,对存储的资源进行抽象,对外提供可以调用的地方【生产者】
-
PVC:用于调用,不需要关心内部实现细节【消费者】
PV 和 PVC 使得 K8S 集群具备了存储的逻辑抽象能力。使得在配置Pod的逻辑里可以忽略对实际后台存储 技术的配置,而把这项配置的工作交给PV的配置者,即集群的管理者。存储的PV和PVC的这种关系,跟 计算的Node和Pod的关系是非常类似的;PV和Node是资源的提供者,根据集群的基础设施变化而变 化,由K8s集群管理员配置;而PVC和Pod是资源的使用者,根据业务服务的需求变化而变化,由K8s集 群的使用者即服务的管理员来配置。
实现流程
- PVC绑定PV
- 定义PVC
- 定义PV【数据卷定义,指定数据存储服务器的ip、路径、容量和匹配模式】
举例
创建一个 pvc.yaml
[root@k8s-master ~]$ cat > pvc.yaml << EOF
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx-dep1
spec:
replicas: 3
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
volumeMounts:
- name: wwwroot
mountPath: /usr/share/nginx/html
ports:
- containerPort: 80
volumes:
- name: wwwroot
persistentVolumeClaim:
claimName: my-pvc
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: my-pvc
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 5Gi
EOF
第一部分是定义一个 deployment,做一个部署
- 副本数:3
- 挂载路径
- 调用:是通过pvc的模式
然后定义pvc
[root@k8s-master ~]$ cat > pv.yaml << EOF
apiVersion: v1
kind: PersistentVolume
metadata:
name: my-pv
spec:
capacity:
storage: 5Gi
accessModes:
- ReadWriteMany
nfs:
path: /k8s/nfs
server: 192.168.88.10
EOF
然后就可以创建pod了
[root@k8s-master ~]$ kubectl apply -f pv.yaml
然后我们就可以通过下面命令,查看我们的 pv 和 pvc之间的绑定关系
[root@k8s-master ~]$ kubectl get pv, pvc
到这里为止,我们就完成了我们 pv 和 pvc的绑定操作,通过之前的方式,进入pod中查看内容
[root@k8s-master ~]$ kubect exec -it nginx-dep1 bash
然后查看 /usr/share/nginx.html
也同样能看到刚刚的内容,其实这种操作和之前我们的nfs是一样的,只是多了一层pvc绑定pv的操作