k8s-statefulSet学习

k8s资源调度-StatefulSet

1)statefulSet专门用来部署有状态服务,一般带有数据存储功能的服务为有状态服务。

2)主要解决使网络有稳定标识,稳定的持久化存储,有序部署,有序扩展,有序收缩,有序删除的问题。

1.statefulSet配置文件

1)创建一个名为web.yamlstatefulSet配置文件,由于本文是为了学习statefulSet的基本操作,所以本配置文件未带pvc持久卷,其具体配置内容如下所示:

---
apiVersion: v1
kind: Service
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  ports:
  - port: 80
    name: web
  clusterIP: None
  selector:
    app: nginx
---
apiVersion: apps/v1
kind: StatefulSet #StatefulSet类型的资源
metadata:
  name: web # statefulset的名字
spec:
  serviceName: "nginx"  # 使用那个service来管理dns
  replicas: 2   # 创建的副本数量
  selector:   # 选择器的设置
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.7.9
        ports:   # 容器内部要暴漏的端口
        - containerPort: 80 # 具体暴露的端口号
          name: web # 该端口配置的名字

2.statefulSet的创建

1)当配置文件完成后,使用以下命令进行对statefulSet的创建。

#我这里配置的文件名是web.yaml
kubectl create -f web.yaml 

2)对于本文的配置文件来讲,当创建完成后,会出现一个service的创建成功(即nginx的创建成功),和statefulSet的创建成功,可以使用以下命令进行查看。

# 查看当前所有statefulSet的状态
kubectl get sts
# 查看当前所有service的状态
kubectl get svc

3)进行pod的查看,由于配置文件中的副本数量设置的为2,所以可以发现有2个名为webnginx已经运行了。可通过以下命令安装busybox对这2个web进行测试。具体结果如下图所示。

# 安装busybox
kubectl run -it --image busybox:1.28.4 dns-test /bin/sh
# 分别对2个web进行ping操作,看在外部是否可以进行访问
ping web-0.nginx
ping web-0.nginx

在这里插入图片描述

4)在busybox中可以看到pod的映射关系,如下图所示。首先了解一下statefulSet中的每个podDNS的映射格式为

statefulName-{0,1,2,3...n-1} . serviceName . namespace . svc . cluster . local

  • serviceNameHeadless Service 的名字。
  • 0..N-1Pod 所在的序号,从 0 开始到 N-1
  • statefulSetNameStatefulSet 的名字。
  • namespace 为服务所在的 namespaceHeadless ServicStatefulSet 必须在相同的 namespace
  • .cluster.localCluster Domain(本地集群域名)。

在这里插入图片描述

3.statefulSet扩容缩容

1)使用以下命令可以进行对statefulSet进行扩容和缩容。

# 将名为web的statefulSet扩容到5个
kubectl scale sts web --replicas=5
# 将名为web的statefulSet扩容到2个
kubectl scale sts web --replicas=2

4.statefulSet更新

1)镜像更新,使用以下命令可以对statefulSet进行更新。然后通过查看statefulSet的详细信息,可以观察到statefulSet在进行更新时是有序的,会呈现倒叙进行更新,即先更新web-1,然后再更新web-0,具体如下如图所示。

# 对名为web的statefulSet进行更新,将其内部的nginx版本更新为1.9.1
kubectl patch sts web --type='json' -p='[{"op":"replace","path":"/spec/template/spec/containers/0/image",
"value":"nginx:1.9.1"}]'
# 更新后查看statefulSet的详细信息
kubectl describe sts web

在这里插入图片描述

5.灰度发布

由于在statefulSet中,其更新的是有序的,所以就提出了灰度发布的方法。其主要的思想就是将风险降到最低,假设现在有5个服务,先更新其中2个,当发布后在一定时间内没有出现意外状况时,再手动更新其他的3个服务。

1)先修改statefulSet的配置文件,将nginx的版本修改为1.7.9,然后再将partition修改为3(表示将3和3以后的进行更新)。

# 修改配置文件
kubectl edit sts web

在这里插入图片描述

2)然后再通过查看pod中的web-3web-4会发现,这2个podnginx版本已经更新成功了,但是其他3个任然是之前的版本。

3)当经过一段时候后,如果发现web-3web-4没有发现异常,则可以继续修改partition,将其修改为0(表示更新所有的节点)。然后通过观察,所有的节点都会更新成功。通过下图,可以发现statefulSet的更新是有序进行的,先更新3-4,再更新0-2。

在这里插入图片描述

6.级联删除与非级联删除

由于statefulSet并不像deployment,对于deployment只要将depolyment删除,其下面的rspod都会自动删除。但是statefulSet因为它部署的一般都是有状态服务,所以提供了2种删除方式。

1)级联删除,使用级联删除时,会将statefulSetpodsvc同时删除,如果带有持久卷,也会被删除,当然本文中未涉及持久卷。

kubectl delete sts web

2)非级联删除

# 当设置了以下配置后,就可以对statefulSet,pod,svc,pvc 分别进行选择性的删除了
kubectl delete sts web --cascade=false
  • 23
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要将正在 k8s-node1 节点上运行的名为 apache-pod 的 pod 扩容到 k8s-node2 节点,并同时在这两个节点上运行 pod,请按照以下步骤操作: 1. 创建一个 deployment,指定 pod 的副本数为 2,并使用 nodeSelector 将这两个 pod 分别调度到 k8s-node1 和 k8s-node2 节点上。可以使用以下 YAML 文件创建 deployment: ``` apiVersion: apps/v1 kind: Deployment metadata: name: apache-pod spec: replicas: 2 selector: matchLabels: app: apache-pod template: metadata: labels: app: apache-pod spec: nodeSelector: kubernetes.io/hostname: k8s-node1 containers: - name: apache-container image: httpd:latest ports: - containerPort: 80 ``` 在这个 YAML 文件中,我们使用 nodeSelector 将第一个 pod 调度到 k8s-node1 节点上,第二个 pod 调度到 k8s-node2 节点上。注意,我们在 template.spec.containers 中指定了容器的镜像和端口号,这里使用的是 httpd 镜像,端口号是 80。 2. 使用 kubectl apply 命令应用这个 YAML 文件: ``` kubectl apply -f deployment.yaml ``` 3. 使用 kubectl get pods 命令检查 pod 状态,确认这两个 pod 都在运行: ``` kubectl get pods -o wide ``` 在输出中,你会看到两个 apache-pod 的副本都在运行,其中一个在 k8s-node1 节点上,另一个在 k8s-node2 节点上。 需要注意的是,使用 nodeSelector 指定 pod 调度到特定节点上可能会降低集群的灵活性,因为这样做会使节点的资源分配不均衡。如果你的集群中有多个节点,最好使用 Kubernetes 的调度器来自动地将 pod 调度到空闲节点上。你可以使用 nodeAffinity 和 podAntiAffinity 等特性来控制 pod 的调度行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值