关于k8s的Pod控制器

目录

1.Pod控制器及其作用

2.pod控制器类型

2.1 ReplicaSet:

2.2 Deployment

2.3 DaemonSet

2.4 StatefulSet

2.5 Job

2.6 Cronjob

3.Pod与控制器之间的关系

3.1 Deployment

3.2 SatefulSet

3.3 DaemonSet

3.4 job

3.5 cronjob


1.Pod控制器及其作用

Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。

2.pod控制器类型

2.1 ReplicaSet:

代用户创建指定数量的pod副本,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。
ReplicaSet主要三个组件组成:
(1)用户期望的pod副本数量
(2)标签选择器,判断哪个pod归自己管理
(3)当现存的pod数量不足,会根据pod资源模板进行新建
帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

2.2 Deployment

工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。
ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。因为RC在滚动升级之后,会造成服务访问中断,于是K8S引入了Deployment资源

2.3 DaemonSet

用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务
特性:服务是无状态的
服务必须是守护进程

2.4 StatefulSet

管理有状态应用

2.5 Job

只要完成就立即退出,不需要重启或重建

2.6 Cronjob

周期性任务控制,不需要持续后台运行

3.Pod与控制器之间的关系

controllers:在集群上管理和运行容器的 pod 对象, 控制器 通过 label-selector 与 Pod 相关联。
Pod 通过控制器实现应用的运维,如伸缩,升级等。

3.1 Deployment

部署无状态应用
管理Pod和ReplicaSet
具有上线部署、副本设定、滚动升级、回滚等功能
提供声明式更新,例如只更新一个新的image
应用场景:web服务

3.2 SatefulSet

部署有状态应用
稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现
稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现
有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现
有序收缩,有序删除(即从N-1到0)

常见的应用场景:数据库
https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/

创建SatefulSet控制器

创建SatefulSet控制器,必须先创建Headless Service
vim demo1-svc.yaml 
apiVersion: v1
kind: Service
metadata:
  labels:
    app: demo1-svc
  name: demo1-svc
  namespace: xy101
spec:
  ports:
  - name: http
    port: 8080
    protocol: TCP
    targetPort: 80
  selector:
    app: myapp
  type: ClusterIP
  clusterIP: None                 #设置为none即创建Headless Service

kubectl apply -f demo1-svc.yaml 
kubectl get svc -n xy101

vim demo2-sts.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
  labels:
    app: demo2-sts
  name: demo2-sts
  namespace: xy101
spec:
  serviceName: demo1-svc           #此处名字必与创建的svc资源名称一致
  replicas: 3
  selector:
    matchLabels:
      app: myapp
  template:
    metadata:
      labels:
        app: myapp
    spec:
      containers:
      - image: soscscs/myapp:v1
        name: myapp
        ports:
        - containerPort: 80
        resources: {}

kubectl apply -f demo2-sts.yaml
kubectl get pod -n xy101

扩容

kubectl scale -n xy101 statefulset demo2-sts --replicas=6
SatefulSet控制器创建资源、扩容都是有序创建


缩容

kubectl scale -n xy101 statefulset demo2-sts --replicas=3
SatefulSet控制器缩容是倒序进行

删除

当删除-个 Statefulset 时,该 Statefulset 不提供任何终止 Pod 的保证。为了实现 Statefulset 中的 Pod 可以有序且体面地终止,可以在删除之前将 Statefulset 缩容到 0

kubectl delete -n xy101 pod demo2-sts-1 #删除前后pod名称不会发生改变

解析pod的ip

kubectl run -n xy101 demo-pod --image=soscscs/myapp:v1  #测试pod
kubectl exec -it -n xy101 demo-pod -- sh
cat /etc/resolv.conf
nslookup pod名称.svc名称.统一的域名
nslookup demo2-sts-0.demo1-svc.xy101.svc.cluster.local

kubectl scale -n xy101 statefulset demo2-sts --replicas=0
kubectl scale -n xy101 statefulset demo2-sts --replicas=3
kubectl exec -it -n xy101 demo-pod -- sh
nslookup demo2-sts-0.demo1-svc.xy101.svc.cluster.local

滚动升级

kubectl set image -n xy101 sts demo2-sts myapp=soscscs/myapp:v2  #倒序进行升级

持久化存储

vim demo2-sts.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
  labels:
    app: demo2-sts
  name: demo2-sts
  namespace: xy101
spec:
  serviceName: demo1-svc
  replicas: 3
  selector:
    matchLabels:
      app: myapp
  template:
    metadata:
      labels:
        app: myapp
    spec:
      containers:
      - image: soscscs/myapp:v1
        name: myapp
        ports:
        - containerPort: 80
        resources: {}
        volumeMounts:
        - name: demo2-sts-pvc
          mountPath: /mnt
  volumeClaimTemplates:
  - metadata:
      name: demo2-sts-pvc
    spec:
      accessModes:
      - ReadWriteOnce
      resources:
        requests:
          storage: 2Gi
      storageClassName: nfs-client-storageclass

kubectl apply -f demo2-sts.yaml 
kubectl get pod -n xy101
kubectl get pv,pvc -n xy101

[root@master01 day12]# kubectl exec -it -n xy101 demo2-sts-0 -- sh
/ # cd /mnt
/mnt # echo '123' > tan.txt
/mnt # exit
[root@master01 day12]# kubectl exec -it -n xy101 demo2-sts-1 -- sh
/ # cd /mnt
/mnt # echo '234' > chen.txt
/mnt # exit

[root@master01 day12]# kubectl delete -n xy101 pod demo2-sts-0
pod "demo2-sts-0" deleted
[root@master01 day12]# kubectl delete -n xy101 pod demo2-sts-1
pod "demo2-sts-1" deleted
[root@master01 day12]# kubectl get pod -n xy101 
NAME          READY   STATUS    RESTARTS   AGE
demo-pod      1/1     Running   0          176m
demo2-sts-0   1/1     Running   0          6s
demo2-sts-1   1/1     Running   0          2s
demo2-sts-2   1/1     Running   0          7m5s
 


#无论怎么删除pod,数据都不会丢失

3.3 DaemonSet

DaemonSet 确保全部(或者一些)Node 上运行同一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。

使用 DaemonSet 的一些典型用法:
●运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph。
●在每个 Node 上运行日志收集 daemon,例如fluentd、logstash。
●在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。
应用场景:Agent

vim demo3-ds.yaml 
apiVersion: apps/v1
kind: DaemonSet
metadata:
  labels:
    app: myapp
  name: myapp-ds
  namespace: xy101
spec:
  selector:
    matchLabels:
      app: myapp
  template:
    metadata:
      labels:
        app: myapp
    spec:
      containers:
      - image: soscscs/myapp:v1
        name: myapp
        ports:
        - containerPort: 80
        resources: {}

3.4 job

Job分为普通任务(Job)和定时任务(CronJob)
常用于运行那些仅需要执行一次的任务
应用场景:数据库迁移、批处理脚本、kube-bench扫描、离线数据处理,视频解码等业务
https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/    

 

vim demo4-job.yaml 
apiVersion: batch/v1
kind: Job
metadata:
  labels:
    app: demo4-job
  name: demo4-job
  namespace: xy101
spec:
  template:
    metadata:
      labels:
        app: myapp
    spec:
      volumes:
      - name: scj-vol
        hostPath:
          path: /data/volumes
          type: DirectoryOrCreate
      containers:
      - image: soscscs/myapp:v1
        name: myapp
        ports:
        - containerPort: 80
        command:
        - sh
        - -c
        - "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 0"                    #只执行十次每隔一秒
        volumeMounts:
        - name: scj-vol
          mountPath: /mnt
        resources: {}
      restartPolicy: Never

vim demo4-job.yaml
apiVersion: batch/v1
kind: Job
metadata:
  labels:
    app: demo4-job
  name: demo4-job
  namespace: xy101
spec:
  backoffLimit: 2      #设置job失败后进行重试的次数
  template:
    metadata:
      labels:
        app: myapp
    spec:
      volumes:
      - name: scj-vol
        hostPath:
          path: /data/volumes
          type: DirectoryOrCreate
      containers:
      - image: soscscs/myapp:v1
        name: myapp
        ports:
        - containerPort: 80
        command:
        - sh
        - -c
        - "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 1"
        volumeMounts:
        - name: scj-vol
          mountPath: /mnt
        resources: {}
      restartPolicy: Never

kubectl apply -f demo4-job.yaml

3.5 cronjob

周期性任务,像Linux的Crontab一样。
周期性任务
应用场景:通知,备份
https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/

 

vim demo5-cj.yaml
apiVersion: batch/v1beta1
kind: CronJob
metadata:
  labels:
    app: demo5-cj
  name: demo5-cj
  namespace: xy101
spec:
  schedule: "*/1 * * * *"           #周期性执行任务
  concurrencyPolicy: Allow          #CronJob 允许并发任务执行
  startingDeadlineSeconds: 20       #过了截止时间20秒,CronJob 就不会开始任务
  successfulJobsHistoryLimit: 3     #保留的成功完成的任务数
  failedJobsHistoryLimit: 3         #保留已完成和失败的任务数
  jobTemplate:
    spec:
      #backoffLimit: 2
      template:
        metadata:
          labels:
            app: myapp
        spec:
          volumes:
          - name: scj-vol
            hostPath:
              path: /data/volumes
              type: DirectoryOrCreate
          containers:
          - image: soscscs/myapp:v1
            name: myapp
            ports:
            - containerPort: 80
            command:
            - sh
            - -c
            - "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 0"
            volumeMounts:
            - name: scj-vol
              mountPath: /mnt

K8s中的Pod控制器是用来管理和控制Pod的一种机制。Pod控制器负责创建、启动、停止、重启和删除Pod,以及监控和调节Pod的状态。Pod和Controller之间是通过label标签来建立关系,Controller又被称为控制器工作负载。Pod控制器可以根据需要创建多个Pod实例,以满足应用程序的需求。 常见的Pod控制器包括Deployment、ReplicaSet、StatefulSet和DaemonSet等。Deployment控制器K8s中最常用和最重要的Pod控制器之一。它通过创建和管理ReplicaSet来实现对Pod的控制。Deployment控制器可以定义应用的副本数、升级和回滚策略,以及弹性伸缩等功能。通过使用Deployment控制器,可以方便地部署和管理应用程序。 在使用K8s时,可以使用yaml文件来定义Pod控制器的配置和参数。通过指定不同的字段和数值,可以实现对Pod控制器的定制化配置。例如,可以在yaml文件中指定应用程序的镜像、资源需求、副本数等信息。 总结来说,K8s中的Pod控制器是用来管理和控制Pod的机制,通过label标签与Pod建立关系。常见的Pod控制器包括Deployment、ReplicaSet、StatefulSet和DaemonSet。使用yaml文件可以对Pod控制器进行配置和定制化。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [k8s技术交流,包括Pod概念和特点Pod种类Pod镜像拉取策略Pod重启策略Pod控制器Pod探针、Pod调度](https://download.csdn.net/download/lingmeng447/85358750)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【k8s】6、pod控制器](https://blog.csdn.net/hancoder/article/details/118064163)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值