一、调度器简介
调度器通过 kubernetes 的 watch 机制来发现集群中新创建且尚未被调度到
Node 上的 Pod。调度器会将发现的每一个未调度的 Pod 调度到一个合适的 Node
上来运行。
kube-scheduler 是 Kubernetes 集群的默认调度器,并且是集群控制面的一部分。
如果你真的希望或者有这方面的需求,kube-scheduler 在设计上是允许你自己写
一个调度组件并替换原有的 kube-scheduler。
在做调度决定时需要考虑的因素包括:单独和整体的资源请求、硬件/软件/策略限
制、亲和以及反亲和要求、数据局域性、负载间的干扰等等
默认策略可以参考:https://kubernetes.io/zh/docs/concepts/scheduling/kube-scheduler/
调度框架:https://kubernetes.io/zh/docs/concepts/configuration/scheduling-framework/
nodeName
nodeName 是节点选择约束的最简单方法,但一般不推荐。如果 nodeName 在
PodSpec 中指定了,则它优先于其他的节点选择方法
使用 nodeName 来选择节点的一些限制:
- 如果指定的节点不存在。
- 如果指定的节点没有资源来容纳 pod,则pod 调度失败。
- 云环境中的节点名称并非总是可预测或稳定的。
实例
vim pod.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
containers:
- name: nginx
image: nginx
nodeName: server4
应用
nodeSelector
nodeSelector 是节点选择约束的最简单推荐形式。
给选择的节点添加标签
kubectl label nodes server3 disktype=ssd
kubectl get nodes --show-labels
添加 nodeSelector 字段到 pod 配置中
vim pod1.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx
labels:
env: test
spec:
containers:
- name: nginx
image: nginx
imagePullPolicy: IfNotPresent
nodeSelector:
disktype: ssd
拉起容器并查看
亲和与反亲和
nodeSelector 提供了一种非常简单的方法来将 pod 约束到具有特定标签的节点上。亲和/反亲和功能极大地扩展了你可以表达约束的类型。
你可以发现规则是“软”/“偏好”,而不是硬性要求,因此,如果调度器无法满足该要求,仍然调度该 pod
你可以使用节点上的 pod 的标签来约束,而不是使用节点本身的标签,来允 许哪些 pod可以或者不可以被放置在一起。
节点亲和性pod示例
vim pod2.yaml
apiVersion: v1
kind: Pod
metadata:
name: node-affinity
spec:
containers:
- name: nginx
image: nginx
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/hostname
operator: In
values:
- server4
requiredDuringSchedulingIgnoredDuringExecution 必须满足,键是 kubernetes.io/hostname 值是server4,所以可以看到这个pod在server4上运行
在pod2.yaml后面补充加入倾向满足
- server3
preferredDuringSchedulingIgnoredDuringExecution:
- weight: 1
preference:
matchExpressions:
- key: disktype
operator: In
values:
- ssd
必须满足写入的键是 kubernetes.io/hostname 值是server4和server3, 倾向满足的键是disktype 值是ssd,由于上面的实验给了server3标签,所以这个pod会在server3上运行.如果要写入多个倾向满足的条件的话,可以通过权重来进行排序
nodeaffinity还支持多种规则匹配条件的配置如
• In:label 的值在列表内
• NotIn:label 的值不在列表内
• Gt:label 的值大于设置的值,不支持Pod亲和性
• Lt:label 的值小于设置的值,不支持pod亲和性
• Exists:设置的label 存在
• DoesNotExist:设置的 label 不存在
pod 亲和性和反亲和性
podAffinity 主要解决POD可以和哪些POD部署在同一个拓扑域中的问题
(拓扑域用主机标签实现,可以是单个主机,也可以是多个主机组成的
cluster、zone等。)
podAntiAffinity主要解决POD不能和哪些POD部署在同一个拓扑域中的问
题。它们处理的是Kubernetes集群内部POD和POD之间的关系。
Pod 间亲和与反亲和在与更高级别的集合(例如 ReplicaSets,
StatefulSets,Deployments 等)一起使用时,它们可能更加有用。可以
轻松配置一组应位于相同定义拓扑(例如,节点)中的工作负载。
pod亲和性示例:
vim pod3.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
---
apiVersion: v1
kind: Pod
metadata:
name: myapp
labels:
app: myapp
spec:
containers:
- name: myapp
image: myapp:v1
affinity:
podAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app
operator: In
values:
- nginx
topologyKey: kubernetes.io/hostname
应用这个yaml文件,可以看到这两个pod在同一主机
pod反亲和性示例:
vim pod3.yaml
apiVersion: v1
kind: Pod
metadata:
name: nginx
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
---
apiVersion: v1
kind: Pod
metadata:
name: myapp
labels:
app: myapp
spec:
containers:
- name: myapp
image: myapp:v1
affinity:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: app
operator: In
values:
- nginx
topologyKey: kubernetes.io/hostname
重新拉起容器,查看mysql节点并不在nginx服务的同个节点上,实现服务与数据分离。
Taints污点
Taints(污点)是Node的一个属性,设置了Taints后,所以Kubernetes是不会将Pod
调度到这个Node上的,于是Kubernetes就给Pod设置了个属性Tolerations(容忍),
只要Pod能够容忍Node上的污点,那么Kubernetes就会忽略Node上的污点,就能
够(不是必须)把Pod调度过去。
可以使用命令 kubectl taint 给节点增加一个 taint:
$ kubectl taint nodes node1 key=value:NoSchedule创建
$ kubectl describe nodes server1 |grep Taints查询
$ kubectl taint nodes node1 key:NoSchedule-删除
其中[effect] 可取值: [ NoSchedule | PreferNoSchedule | NoExecute ]
• NoSchedule:POD 不会被调度到标记为 taints 节点。
• PreferNoSchedule:NoSchedule 的软策略版本。
• NoExecute:该选项意味着一旦 Taint 生效,如该节点内正在运行的 POD 没有对应
部署nginx deployment示例:
vim pod4.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: web-server
spec:
selector:
matchLabels:
app: nginx
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: nginx
运行yaml文件
server4运行了pod
server4加入污点 NoExecute
kubectl get pod -o wide
kubectl taint node server4 key1=v1:NoExecute
tolerations中定义的key、value、effect,要与node上设置的taint保持一直:
如果 operator 是 Exists ,value可以省略。
如果 operator 是 Equal ,则key与value之间的关系必须相等。
如果不指定operator属性,则默认值为Equal。
还有两个特殊值:
当不指定key,再配合Exists 就能匹配所有的key与value ,可以容忍所有污点。
当不指定effect ,则匹配所有的effect。
影响Pod调度的指令