Linux实战笔记-----kubernetes调度

一、调度器简介

调度器通过 kubernetes 的 watch 机制来发现集群中新创建且尚未被调度到
Node 上的 Pod。调度器会将发现的每一个未调度的 Pod 调度到一个合适的 Node
上来运行。
kube-scheduler 是 Kubernetes 集群的默认调度器,并且是集群控制面的一部分。
如果你真的希望或者有这方面的需求,kube-scheduler 在设计上是允许你自己写
一个调度组件并替换原有的 kube-scheduler。
在做调度决定时需要考虑的因素包括:单独和整体的资源请求、硬件/软件/策略限
制、亲和以及反亲和要求、数据局域性、负载间的干扰等等

默认策略可以参考:https://kubernetes.io/zh/docs/concepts/scheduling/kube-scheduler/

调度框架:https://kubernetes.io/zh/docs/concepts/configuration/scheduling-framework/

nodeName

nodeName 是节点选择约束的最简单方法,但一般不推荐。如果 nodeName 在
PodSpec 中指定了,则它优先于其他的节点选择方法

使用 nodeName 来选择节点的一些限制:

  • 如果指定的节点不存在。
  • 如果指定的节点没有资源来容纳 pod,则pod 调度失败。
  • 云环境中的节点名称并非总是可预测或稳定的。

实例

vim pod.yaml

apiVersion: v1
kind: Pod
metadata:
  name: nginx
spec:
  containers:
  - name: nginx
    image: nginx
  nodeName: server4

应用
在这里插入图片描述
nodeSelector
nodeSelector 是节点选择约束的最简单推荐形式。

给选择的节点添加标签

kubectl label nodes server3 disktype=ssd
kubectl get nodes --show-labels

在这里插入图片描述
添加 nodeSelector 字段到 pod 配置中

vim pod1.yaml

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  labels:
    env: test
spec:
  containers:
  - name: nginx
    image: nginx
    imagePullPolicy: IfNotPresent
  nodeSelector:
    disktype: ssd

拉起容器并查看
在这里插入图片描述

亲和与反亲和

nodeSelector 提供了一种非常简单的方法来将 pod 约束到具有特定标签的节点上。亲和/反亲和功能极大地扩展了你可以表达约束的类型。
你可以发现规则是“软”/“偏好”,而不是硬性要求,因此,如果调度器无法满足该要求,仍然调度该 pod
你可以使用节点上的 pod 的标签来约束,而不是使用节点本身的标签,来允 许哪些 pod可以或者不可以被放置在一起。

节点亲和性pod示例

vim pod2.yaml

apiVersion: v1
kind: Pod
metadata:
  name: node-affinity
spec:
  containers:
  - name: nginx
    image: nginx
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
           nodeSelectorTerms:
           - matchExpressions:
             - key: kubernetes.io/hostname
               operator: In
               values:
               - server4

requiredDuringSchedulingIgnoredDuringExecution 必须满足,键是 kubernetes.io/hostname 值是server4,所以可以看到这个pod在server4上运行
在这里插入图片描述
在pod2.yaml后面补充加入倾向满足

           - server3
  preferredDuringSchedulingIgnoredDuringExecution:
  - weight: 1
    preference:
      matchExpressions:
      - key: disktype
        operator: In
        values:
        - ssd  

必须满足写入的键是 kubernetes.io/hostname 值是server4和server3, 倾向满足的键是disktype 值是ssd,由于上面的实验给了server3标签,所以这个pod会在server3上运行.如果要写入多个倾向满足的条件的话,可以通过权重来进行排序
在这里插入图片描述

nodeaffinity还支持多种规则匹配条件的配置如
• In:label 的值在列表内
• NotIn:label 的值不在列表内
• Gt:label 的值大于设置的值,不支持Pod亲和性
• Lt:label 的值小于设置的值,不支持pod亲和性
• Exists:设置的label 存在
• DoesNotExist:设置的 label 不存在

pod 亲和性和反亲和性

podAffinity 主要解决POD可以和哪些POD部署在同一个拓扑域中的问题
(拓扑域用主机标签实现,可以是单个主机,也可以是多个主机组成的
cluster、zone等。)

podAntiAffinity主要解决POD不能和哪些POD部署在同一个拓扑域中的问
题。它们处理的是Kubernetes集群内部POD和POD之间的关系。

Pod 间亲和与反亲和在与更高级别的集合(例如 ReplicaSets,
StatefulSets,Deployments 等)一起使用时,它们可能更加有用。可以
轻松配置一组应位于相同定义拓扑(例如,节点)中的工作负载。

pod亲和性示例:

 vim pod3.yaml

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  containers:
  - name: nginx
    image: nginx
---
apiVersion: v1
kind: Pod
metadata:
  name: myapp
  labels:
    app: myapp
spec:
  containers:
  - name: myapp
    image: myapp:v1
  affinity:
    podAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: app
            operator: In
            values:
            - nginx
        topologyKey: kubernetes.io/hostname

应用这个yaml文件,可以看到这两个pod在同一主机
在这里插入图片描述
pod反亲和性示例:

 vim pod3.yaml

 apiVersion: v1
kind: Pod
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  containers:
  - name: nginx
    image: nginx
---
apiVersion: v1
kind: Pod
metadata:
  name: myapp
  labels:
    app: myapp
spec:
  containers:
  - name: myapp
    image: myapp:v1
  affinity:
    podAntiAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
      - labelSelector:
          matchExpressions:
          - key: app
            operator: In
            values:
            - nginx
        topologyKey: kubernetes.io/hostname

重新拉起容器,查看mysql节点并不在nginx服务的同个节点上,实现服务与数据分离。

Taints污点

Taints(污点)是Node的一个属性,设置了Taints后,所以Kubernetes是不会将Pod
调度到这个Node上的,于是Kubernetes就给Pod设置了个属性Tolerations(容忍),
只要Pod能够容忍Node上的污点,那么Kubernetes就会忽略Node上的污点,就能
够(不是必须)把Pod调度过去。

可以使用命令 kubectl taint 给节点增加一个 taint:

 $ kubectl taint nodes node1 key=value:NoSchedule创建
 $ kubectl describe nodes server1 |grep Taints查询
 $ kubectl taint nodes node1 key:NoSchedule-删除

其中[effect] 可取值: [ NoSchedule | PreferNoSchedule | NoExecute ]
• NoSchedule:POD 不会被调度到标记为 taints 节点。
• PreferNoSchedule:NoSchedule 的软策略版本。
• NoExecute:该选项意味着一旦 Taint 生效,如该节点内正在运行的 POD 没有对应

部署nginx deployment示例:

vim pod4.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: web-server
spec:
  selector:
    matchLabels:
      app: nginx
  replicas: 3
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx

运行yaml文件
server4运行了pod
server4加入污点 NoExecute

kubectl get pod -o wide
kubectl taint node  server4 key1=v1:NoExecute

在这里插入图片描述
tolerations中定义的key、value、effect,要与node上设置的taint保持一直:
如果 operator 是 Exists ,value可以省略。
如果 operator 是 Equal ,则key与value之间的关系必须相等。
如果不指定operator属性,则默认值为Equal。

还有两个特殊值:

当不指定key,再配合Exists 就能匹配所有的key与value ,可以容忍所有污点。
当不指定effect ,则匹配所有的effect。

影响Pod调度的指令

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值