一、Pod控制器介绍
在kubernetes中,按照pod的创建方式可以将其分为两类:
- 自动式pod:kubernetes直接创建出来的pod,这种pod删除之后就没有了,也不会重建。
- 控制器创建的pod:通过控制器创建的pod,这种pod删除之后还会自动重建。
二、什么是Pod控制器
Pod控制器是管理pod的中间层,使用了pod控制器之后,我们只需要告诉pod控制器,想要多少个什么样的pod就可以了,他就会创建出满足条件的pod并确保每一个pod处于用户期望的状态,如果pod在运行中出现故障,控制器会基于指定策略重启或者重建pod。
在kubernetes中,有很多类型的pod控制器,每种都有自己的适合的场景,常见的有下面这些:
- ReplicationController:比较原始的pod控制器,已被废弃,由ReplicaSet替代。
- ReplicaSet:保证指定数量的pod运行,并支持pod数量变更,镜像版本变更。
- Deployment:通过控制ReplicaSet来控制pod,并支持滚动升级、版本回退。
- Horizontal Pod Autoscaler:可以根据集群负载自动调整Pod的数量,实现削峰填谷。
- DaemonSet:在集群中的指定Node上都运行一个副本,一般用于守护线程类的任务。
- Job:它创建出来的pod只要完成任务就立即退出,用于执行一次性任务。
- Cronjob:它创建的pod会周期性的执行,用于执行周期性任务。
- StatefulSet:管理有状态应用。
三、各个控制器详解
ReplicaSet(RS)
ReplicaSet的主要作用是保证一定数量的pod能够正常运行,他会持续监听这些pod的运行状态,一旦pod发生故障,就会重启或重建。同时他还支持对pod数量的扩容和版本镜像的升级。
ReplicaSet的资源清单
apiVersion: apps/v1 #版本号
kind: ReplicaSet #类型
metadata: #元数据
name: #rs名称
namespace: #所属命名空间
labels: #标签
controller: rs
spec: #详情描述
replicas: 3 #副本数量
selector: #选择器,通过他指定该控制器管理哪些pod
matchLabels: #Labels 匹配规则
app: nginx-pod
matchExpressions: #Expressions 匹配规则
- {key: app, operator: In, values: [nginx-pod]}
template: #模板,当副本数量不足时,会根据下面的模板创建pod副本
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
这里面需要新了解的配置项就是spec下面的几个选项:
- replicas:指定副本的数量,就是当前rs创建出来的pod的数量,默认1
- selector:选择器,他的作用是建立pod控制器和pod之间的关联关系,采用Label Selector机制。在pod模板上定义label,在控制器上定义选择器,就可以表明当前控制器能管理哪些pod了。
- template:模板,就是当前控制器创建pod所使用的模板,里面其实就是pod的定义。
1.创建ReplicaSet控制器
创建pc-replicaset.yaml文件
apiVersion: apps/v1
kind: ReplicaSet
metadata:
name: pc-replicaset
namespace: dev
spec:
replicas: 3
selector:
matchLabels:
app: nginx-pod
template:
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
#查看ReplicaSet控制器信息
#kubectl get rs pc-replicaset -n dev -o wide
#DESIRED 期望副本数量
#CURRENT 当前副本数量
#READY 已经准备好提供服务的副本数量
2.pod的扩缩容
1.使用kubectl edit 命令直接修改
kubectl edit rs pc-replicaset -n dev
2.使用scale命令实现扩缩容,后面--replicaset=n 直接指定副本数量即可。
kubectl scale rs pc-replicaset --replicas=2 -n dev
3.镜像升级
1.编辑rs的容器镜像 - image: nginx:1.17.2
kubectl edit rs pc-replicaset -n dev
2.使用set image 命令修改镜像版本
#kubectl set image rs rs名称 容器=镜像版本 -n namespace
kubectl set image rs pc-replicaset nginx=nginx:1.17.2 -n dev
4.删除ReplicaSet
使用kubectl delete名称会删除此rs以及他管理的pod
在kubernetes删除rs前,会将rs的replicas调整为0,等待所有pod被删除之后,再执行rs的删除。
kubectl delete rs pc-replicaset -n dev
如果希望保留pod,只删除rs,可以使用--cascade=false选项(不推荐)
kubectl delete rs pc-replicaset -n dev --cascade=false
也可以使用yaml直接删除(推荐)
kubectl delete -f pc-replicaset.yaml
Deployment(Deploy)
为了更好地解决服务编排问题,kubernetes在V1.2版本开始,引入了Deployment控制器。值得一提的是,这种控制器并不是直接管理pod,而是通过管理ReplicaSet简洁的管理pod,即:Deployment管理ReplicaSet,ReplicaSet管理Pod。所以Deployment比ReplicaSet功能更加强大。
Deployment主要功能:
- 支持ReplicaSet的所有功能
- 支持发布的停止、继续
- 支持版本滚动升级和版本回退
Deployment的资源清单文件:
apiVersion: apps/v1 #版本号
kind: Deployment #类型
metadata: #元数据
name: #deploy名称
namespace: #所属命名空间
labels: #标签
controller: deploy
spec: #详情描述
replicas: 3 #副本数量
revisionHistoryLimit: 3 #保留历史版本,默认10
paused: false #暂停部署,默认是false
progressDeadlineSeconds: 600 #部署超时时间(s),默认600s
strategy: #策略
type: RollingUpdate #滚动更新策略
rollingUpdate: #滚动更新
maxSurge: 30% #最大额外可以存在的副本数,可以为百分比,也可以为整数
maxUnavailable: 30% #最大不可用状态的pod的最大值,可以为百分比,也可以为整数
selector: #选择器,通过他指定该控制器管理哪些pod
matchLabels: #Labels 匹配规则
app: nginx-pod
matchExpressions: #Expressions 匹配规则
- {key: app, operator: In, values: [nginx-pod]}
template: #模板,当副本数量不足时,会根据下面的模板创建pod副本
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
1.创建deployment
创建pc-deployment.yaml,内容如下:
apiVersion: apps/v1
kind: Deployment
metadata:
name: pc-deployment
namespace: dev
spec:
replicas: 3
selector:
matchLabels:
app: nginx-pod
template:
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
#创建deployment
#--record=true 记录每次版本变化
kubectl create -f pc-deployment.yaml --record=true
#UP-TO-DATE 最新版本的pod数量
#AVAILABLE 当前每次的版本变化
2.扩缩容
1.使用scale命令
kubectl scale deploy pc-deployment --replicas=5 -n dev
2.编辑deploy配置文件,修改spec:replicas: 即可
kubectl edit deploy pc-deployment -n dev
3.镜像更新
Deployment支持两种镜像更新策略:重建更新和滚动更新(默认),可以通过strategy选项进行配置。
strategy:指定新的Pod替换旧的Pod之前会先杀掉所有已经存在的Pod
type: 指定策略类型,支持两种策略
Recreate: 在创建出新的Pod之前,先杀掉所有已存在的Pod
RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新的过程中,存在两个版本Pod
rollingUpdate:当type为RollingUpdate时生效,用于为RollingUpdate设置参数,支持两个属性:
maxUnavailable:用来指定在升级过程中不可用Pod的最大数量,默认为25%
maxSurge: 用来指定在升级过程中可以超过期望的Pod的最大数量,默认25%
1.重建更新
编辑pc-deployment.yaml,在spec节点下添加更新策略,并应用更新策略使用kubectl apply -f
spec:
strategy:
type: Recreate
变更镜像
kubectl set image deployment pc-deployment nginx=nginx:1.17.2 -n dev
观察更新过程
kubectl get pods -n dev -w
2.滚动更新
编辑pc-deployment.yaml,在spec节点下添加更新策略,并应用更新策略使用kubectl apply -f
spec:
strategy:
type: RollingUpate
rollingUpdate:
maxUnavailable: 25%
maxSurge: 25%
变更镜像
kubectl set image deployment pc-deployment nginx=nginx:1.17.3 -n dev
观察升级过程
kubectl get pods -n dev -w
滚动更新的过程
镜像更新中rs的变化
查看rs,发现原来的rs依旧存在,只是pod的数量变为0,而后产生一个新的rs,这就是deployment能够进行版本回退的原因。
kubectl get rs -n dev -w
4.版本回退
deployment支持版本升级过程中的暂停、继续功能以及版本回退等诸多功能。
kubectl rollout : 版本升级相关功能,支持下面的选项:
- status 显示当前升级状态
- history 显示升级历史记录
- pause 暂停版本升级过程
- resume 继续已经暂停的版本升级过程
- restart 重启版本升级过程
- undo 回滚到上一级版本(可以使用--to-revision 回滚到指定版本)
#查看当前升级版本的状态
kubectl rollout status deploy pc-deployment -n dev
#查看升级历史记录
kubectl rollout history deploy pc-deployment -n dev
#版本回退 --to-version 指定版本
kubectl rollout undo deployment pc-deployment --to-revision=1 -n dev
#查看rs,发现第一个rs中有pod运行,其他的rs中pod未运行
#其实deployment之所以可以实现版本回滚,就是通过记录历史rs来实现的。
#一旦想回滚到哪个版本,只需要将当前版本pod数量降为0,然后将回滚版本的pod提升为目标数量就可以了。
kubectl get rs -n dev
5.金丝雀发布
Deployment支持更新过程中的控制,如暂停(pause)或者继续(resume)更新操作。
比如有一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是金丝雀发布。
#更新deployment的版本,并配置暂停deployment
kubectl set image deploy pc-deployment nginx=nginx:1.17.4 -n dev && kubectl rollout pause deployment pc-deployment -n dev
#观察更新状态
kubectl rollout status deploy pc-deployment -n dev
#监控更新过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令
kubectl get rs -n dev -o wide
kubectl get pods -n dev -o wide
#确保更新的pod没问题了,继续更新
kubectl rollout resume deploy pc-deployment -n dev
6.删除Deployment
kubectl delete -f pc-deployment.yaml
Horizontal Pod Autoscaler
前面我们可以通过手动执行kubectl scale 命令实现Pod的扩容,但是这显然不符合kubernetes的定位目标——自动化、智能化。kubernetes期望可以通过监测Pod的使用情况,实现Pod数量的自动调整,于是就产生了HPA这种控制器。
HPA可以获取每个pod的利用率,然后和HPA中定义的指标进行对比,同时计算出需要伸缩的具体值,最后实现pod的数量的调整。其实HPA与之前的Deployment一样,也属于Kubernetes资源对象,他通过追踪分析目标pod的负载变化情况,来确定是否需要针对性地调整目标的pod的副本数。
1.安装metrics-server
metrics-server可以用来收集集群中的资源的使用情况。
#安装git
yum install git -y
#获取metrics-server,注意使用版本
git clone -b v0.3.6 https://github.com/kubernetes-incubator/metrics-server
#修改deployment,注意修改的是镜像和初始化参数
cd /root/metrics-server/deploy/1.8+/
vi metrics-server-deployment.yaml
#在图示中的位置添加下面选项
hostNetwork: true
registry.cn-hangzhou.aliyuncs.com/google_containers/metrics-server-amd64:v0.3.6
- --kubelet-insecure-tls
- --kubelet-preferred-address-types=InternalIP,Hostname,InternalDNS,ExternalDNS,ExternalIP
#部署
kubectl apply -f ./
#部署成功之后会在kube-system命名空间生成一个以metrics-server开头的pod
kubectl get pods -n kube-system
#查看资源使用情况
#查看node资源
kubectl top node
#查看pod资源
kubectl top pod -n dev
2.准备deployment和service
为了操作简单直接使用命令
#创建deployment
kubectl run nginx --image=nginx:latest --requests=cpu=100m -n dev
#创建service
kubectl expose deployment nginx --type=NodePort --port=80 -n dev
3.部署HPA
创建pc-hpa.yaml
apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
name: pc-hpa
namespace: dev
spec:
minReplicas: 1 #最小pod数量
maxReplicas: 10 #最大pod数量
targetCPUUtilizationPercentage: 3 #CPU使用率指标
scaleTargetRef: #指定控制的资源的信息
apiVersion: apps/v1
kind: Deployment
name: nginx
创建hpa
#创建hpa
kubectl create -f pc-hpa.yaml
#查看hpa
kubectl get hpa -n dev -w
4.测试
使用压测工具对service地址进行压测,然后通过控制台查看hpa和pod的变化。
DaemonSet
DaemonSet类型的控制器可以保证集群中的每一台(或指定)节点上都运行一个副本,一般用于日志收集,节点监控等场景。也就是说,如果一个pod提供的功能是节点级别的(每一个节点都需要且只需要一个),那么这类Pod就适合使用DaemonSet类型的控制器创建。
DaemonSet控制器的特点:
- 每当向集群中添加一个节点时,指定的pod副本也将添加到节点上。
- 当节点从集群中移出时,pod也就被垃圾回收了。
资源清单如下:
apiVersion: apps/v1 #版本号
kind: DaemonSet #类型
metadata: #元数据
name: #名称
namespace: #所属命名空间
labels: #标签
controller: daemonset
spec: #详情描述
revisionHistoryLimit: 3 #保留历史版本,默认10
updateStrategy: #更新策略
type: RollingUpdate #滚动更新策略
rollingUpdate: #滚动更新
maxUnavailable: 1 #最大不可用状态的pod的最大值,可以为百分比,也可以为整数
selector: #选择器,通过他指定该控制器管理哪些pod
matchLabels: #Labels 匹配规则
app: nginx-pod
matchExpressions: #Expressions 匹配规则
- {key: app, operator: In, values: [nginx-pod]}
template: #模板,当副本数量不足时,会根据下面的模板创建pod副本
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
创建pc-daemonset.yaml,内容如下:
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: pc-daemonset
namespace: dev
spec:
selector:
matchLabels:
app: nginx-pod
template:
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
创建daemonset控制器
#创建
kubectl create -f pc-daemonset.yaml
#查看ds
kubectl get ds pc-daemonset -n dev
#查看pod
kubectl get pods -n dev
#删除ds
kubectl delete -f pc-daemonset.yaml
Job
Job,主要用于负责批量处理短暂的一次性任务。Job的特点如下:
- 当Job创建的pod执行成功结束时,Job将记录成功结束的pod数量。
- 当成功结束的pod达到指定的数量时,Job将完成执行。
Job的资源清单文件:
apiVersion: batch/v1 #版本号
kind: Job #类型
metadata: #元数据
name: #名称
namespace: #所属命名空间
labels: #标签
controller: job
spec: #详情描述
completions: 1 #指定job需要成功运行pods的次数,默认为1
parallelism: 1 #指定job在任一时刻应该并发运行pods的数量,默认1
activeDeadlineSeconds: 30 #指定job可运行的时间期限,超过时间还没结束,系统会尝试进行终止
backoffLimit: 6 #指定job失败后进行重试的次数
manualSelector: true #是否可以使用selector选择器选择pod,默认是false
selector: #选择器,通过他指定该控制器管理哪些pod
matchLabels: #Labels 匹配规则
app: counter-pod
matchExpressions: #Expressions 匹配规则
- {key: app, operator: In, values: [nginx-pod]}
template: #模板,当副本数量不足时,会根据下面的模板创建pod副本
metadata:
labels:
app: counter-pod
spec:
restartPolicy: Never #重启策略只能设置为Never或者OnFailure
containers:
- name: counter
image: counter:1.30
command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i; sleep 2; done"]
关于重启策略的说明:
- 如果指定为OnFailure,则job会在pod出现故障时重启容器,而不是创建pod,failed次数不变。
- 如果指定为Never,则job会在pod出现故障时创建新的pod,并且故障pod不会小时,也不会重启,failed次数加1。
- 如果指定为Always,就意味着一直重启,意味着job任务会重复去执行,当然不对,所以不能设置为Always。
创建pc-job.yaml,内容如下
apiVersion: batch/v1
kind: Job
metadata:
name: pc-job
namespace: dev
spec:
completions: 6
parallelism: 3
manualSelector: true
selector:
matchLabels:
app: counter-pod
template:
metadata:
labels:
app: counter-pod
spec:
containers:
- name: counter
image: counter:1.30
command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i; sleep 2; done"]
创建job
#创建
kubectl create -f pc-job.yaml
#查看job的信息
kubectl get job -n dev -w
#删除job
kubectl delete -f pc-job.yaml
CronJob(CJ)
CronJob控制器以job控制器资源为其管控对象,并借助他管理pod资源对象,Job控制器定义的作业任务在其控制器资源创建之后便会立即执行,但CronJob可以以类似于Linux操作系统的周期性任务作业计划的方式控制其运行时间点及重复运行的方式。也就是说,CronJob可以在特定的时间点(反复的)去运行Job任务。
CronJob的资源清单文件:
apiVersion: batch/v1beta1 #版本号
kind: CronJob #类型
metadata: #元数据
name: #名称
namespace: #所属命名空间
labels: #标签
controller: cronjob
spec: #详情描述
schedule: #cron格式的作业调度运行时间点,用于控制任务在什么时间执行
concurrencyPolicy: #并发执行策略,用于定义前一次作业运行尚未完成时是否以及如何运行最后一次作业
failedJobHistoryLimit: #为失败的任务执行保留的历史记录数,默认为1
successfulJobHistoryLimit: #为成功的任务执行保留的历史记录数,默认为3
startingDeadlineSeconds: #启动作业错误的超时时长
jobTemplate: #job控制器模板,用于为cronjob控制器生成job对象;下面就是job的定义
metadata:
spec:
completions: 1
parallelism: 1
activeDeadlineSeconds: 30
backoffLimit: 6
manualSelector: true
selector:
matchLabels:
app: counter-pod
matchExpressions:
- {key: app, operator: In, values: [nginx-pod]}
template:
metadata:
labels:
app: counter-pod
spec:
restartPolicy: Never
containers:
- name: counter
image: counter:1.30
command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i; sleep 2; done"]
schedule:cron表达式,用于指定任务的执行时间
*/1 * * * *
<分钟><小时><日><月份><星期>
分钟:值从0到59
小时:值从0到24
日:值从1到31
月:值从1到12
星期:值从0到6,0代表星期日
多个时间可以用逗号隔开;范围可以用连字符给出;*可以作为通配符;/表示每...
concurrencyPolicy:
- Allow:允许Job并发运行(默认)
- Forbid:禁止并发运行,如果上一次运行尚未完成,则跳过下一次运行
- Replace:替换,取消当前正在运行的作业并用新作业替换他
创建pc-cronjob.yaml
apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: pc-cronjob
namespace: dev
spec:
schedule: "*/1 * * * *"
jobTemplate:
metadata:
spec:
template:
metadata:
labels:
app: counter-pod
spec:
containers:
- name: counter
image: counter:1.30
command: ["bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1; do echo $i; sleep 2; done"]
创建cronjob
#创建
kubectl create -f pc-cronjob.yaml
#查看cj
kubectl get cj -n dev
#查看pod
kubectl get pods -n dev -w
#删除cj
kubectl delete -f pc-cronjob.yaml