k8s通过nodeaffinity调度方式创建pod

官网文档介绍
通过下图简要介绍
在这里插入图片描述
在node节点135上配置的label:key-affinity-label=value-affinity-label

root@server01:~# kubectl label node 192.168.174.135 key-affinity-label=value-affinity-label
node "192.168.174.135" labeled

136服务器k8s master
/root/demo/node-affinity.yaml
在yaml文件中配置label的key;key: key-affinity-label value-affinity-label

apiVersion: v1
kind: Pod
metadata:
  labels:
    run: node-affinity
  name: node-affinity
spec:
  containers:
  - image: nginx
    imagePullPolicy: IfNotPresent
    name: node-affinity
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: key-affinity-label
            operator: In
            values:
            - "value-affinity-label"


创建

kubectl create -f node-affinity.yaml
查看node-affinity就创建在了135节点

root@server02:~/demo# kubectl get pod -o wide
NAME                  READY     STATUS    RESTARTS   AGE       IP              NODE
node-affinity         1/1       Running   0          28m       172.20.188.20   192.168.174.135
pod-manual-schedule   1/1       Running   0          3h        172.20.188.19   192.168.174.135
pod-schedule          1/1       Running   0          3h        172.20.40.205   192.168.174.137

刚开始配置的时候,因为key和value与所有3台node的label都不匹配,所以执行命令调度创建的时候,查看创建状态一直都是pending

root@server02:~/demo# kubectl get pod
NAME                  READY     STATUS    RESTARTS   AGE
node-affinity         0/1       Pending   0          13m

查看日志

kubectl describe pod node-affinity

提示default-scheduler 0/3 nodes are available: 3 MatchNodeSelector.

Events:
  Type     Reason            Age                From               Message
  ----     ------            ----               ----               -------
  Warning  FailedScheduling  2m (x72 over 22m)  default-scheduler  0/3 nodes are available: 3 MatchNodeSelector.

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将正在 k8s-node1 节点上运行的名为 apache-podpod 扩容到 k8s-node2 节点,并同时在这两个节点上运行 pod,请按照以下步骤操作: 1. 创建一个 deployment,指定 pod 的副本数为 2,并使用 nodeSelector 将这两个 pod 分别调度到 k8s-node1 和 k8s-node2 节点上。可以使用以下 YAML 文件创建 deployment: ``` apiVersion: apps/v1 kind: Deployment metadata: name: apache-pod spec: replicas: 2 selector: matchLabels: app: apache-pod template: metadata: labels: app: apache-pod spec: nodeSelector: kubernetes.io/hostname: k8s-node1 containers: - name: apache-container image: httpd:latest ports: - containerPort: 80 ``` 在这个 YAML 文件中,我们使用 nodeSelector 将第一个 pod 调度到 k8s-node1 节点上,第二个 pod 调度到 k8s-node2 节点上。注意,我们在 template.spec.containers 中指定了容器的镜像和端口号,这里使用的是 httpd 镜像,端口号是 80。 2. 使用 kubectl apply 命令应用这个 YAML 文件: ``` kubectl apply -f deployment.yaml ``` 3. 使用 kubectl get pods 命令检查 pod 状态,确认这两个 pod 都在运行: ``` kubectl get pods -o wide ``` 在输出中,你会看到两个 apache-pod 的副本都在运行,其中一个在 k8s-node1 节点上,另一个在 k8s-node2 节点上。 需要注意的是,使用 nodeSelector 指定 pod 调度到特定节点上可能会降低集群的灵活性,因为这样做会使节点的资源分配不均衡。如果你的集群中有多个节点,最好使用 Kubernetes 的调度器来自动地将 pod 调度到空闲节点上。你可以使用 nodeAffinitypodAntiAffinity 等特性来控制 pod调度行为。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值