Kubernetes源码分析之Node Controller

本节所有的代码基于1.13.4版本。

启动过程

之前在分析controller-manager中说到,controller对于每个controller的控制格式基本一致,都是以start***Controller的方式封装成一个独立的方法,NodeController也不例外。在1.13.4的版本中,Node的控制器分成了两种(很早之前的版本只有一种),分别是NodeIpamControllerNodeLifecycleController。其中,NodeIpamController主要处理Node的IPAM地址相关,NodeLifecycleController处理Node的整个生命周期,本文主要分析NodeLifecycleController。

如图,NodeLifecycleController以 startNodeLifecycleController方法开始它的生命周期的管理流程。主要关注两个方法: NewNodeLifecycleControllerRun。NewNodeLifecycleController负责创建资源对象,Run负责启动,完成任务的执行。

NewNodeLifecycleController分析

NewNodeLifecycleController主要完成以下任务:
1、根据给定的配置构造Controller大结构体,完成部分参数的配置任务;
2、为podInformernodeInformerleaseInformer以及daemonSetInformer配置相应的回调方法,包括AddFuncUpdateFunc以及DeleteFunc。这样,当相应的Node发生变化时,关联的controller能够及时监听到,并调用相应的处理方法;
3、返回构造完的结构体。
在配置的时候有几个需要注意的变量,后面会经常用到。

runTaintManager:表示启动一个TaintManager去从Node上驱逐Pod;
useTaintBasedEvictions:通过给Node添加 TaintNodeNotReadyTaintNodeUnreachable污点的方式替换之前的直接驱逐Pod的方式,通过流控删除Pod。主要为了防止Pod在某一时间点突然被大量驱逐;
taintNodeByCondition:通过Node的状态给Node添加相应的污点。
另外,与之前的版本不同的是,添加了leaseInformer,它的主要作用是用来判断Node的健康。

Run方法分析

Run方法主要包含以下方法,每个方法都是以单独的goroutine运行:
1、go nc.taintManager.Run(stopCh):TaintManager,主要完成Pod的驱逐任务;
2、doNoScheduleTaintingPassWorker:完成NoSchedule的污点更新任务;
3、doNoExecuteTaintingPassdoEvictionPass:完成NoExecute的污点更新任务;
4、monitorNodeHealth:检查Node的状态,并且处理Node的增删改查等任务,同时也会处理Pod的驱逐工作。
代码如下

// Run starts an asynchronous loop that monitors the status of cluster nodes.
func (nc *Controller) Run(stopCh <-chan struct{}) {
	defer utilruntime.HandleCrash()

	klog.Infof("Starting node controller")
	defer klog.Infof("Shutting down node controller")

	if !controller.WaitForCacheSync("taint", stopCh, nc.leaseInformerSynced, nc.nodeInformerSynced, nc.podInformerSynced, nc.daemonSetInformerSynced) {
		return
	}

	if nc.runTaintManager {
		go nc.taintManager.Run(stopCh)
	}

	if nc.taintNodeByCondition {
		// Close node update queue to cleanup go routine.
		defer nc.nodeUpdateQueue.ShutDown()

		// Start workers to update NoSchedule taint for nodes.
		for i := 0; i < scheduler.UpdateWorkerSize; i++ {
			// Thanks to "workqueue", each worker just need to get item from queue, because
			// the item is flagged when got from queue: if new event come, the new item will
			// be re-queued until "Done", so no more than one worker handle the same item and
			// no event missed.
			go wait.Until(nc.doNoScheduleTaintingPassWorker, time.Second, stopCh)
		}
	}

	if nc.useTaintBasedEvictions {
		// Handling taint based evictions. Because we don't want a dedicated logic in TaintManager for NC-originated
		// taints and we normally don't rate limit evictions caused by taints, we need to rate limit adding taints.
		go wait.Until(nc.doNoExecuteTaintingPass, scheduler.NodeEvictionPeriod, stopCh)
	} else {
		// Managing eviction of nodes:
		// When we delete pods off a node, if the node was not empty at the time we then
		// queue an eviction watcher. If we hit an error, retry deletion.
		go wait.Until(nc.doEvictionPass, scheduler.NodeEvictionPeriod, stopCh)
	}

	// Incorporate the results of node health signal pushed from kubelet to master.
	go wait.Until(func() {
		if err := nc.monitorNodeHealth(); err != nil {
			klog.Errorf("Error monitoring node health: %v", err)
		}
	}, nc.nodeMonitorPeriod, stopCh)

	<-stopCh
}
复制代码

执行过程

NodeLifecycleController的执行过程主要就是各个goroutine对应的任务,一一分析。

TaintManager

TaintManager通过Run方法开始启动。在Run方法内,主要做了几个工作:
1、初始化nodeUpdateChannelspodUpdateChannels,大小为8个channel,后面可以并行处理;
2、启动两个goroutine,分别监听nodeUpdateQueue和podUpdateQueue的消息;
3、并行启动8个工作任务,处理监听到的nodeUpdate和podUpdate的消息。

// Run starts NoExecuteTaintManager which will run in loop until `stopCh` is closed.
func (tc *NoExecuteTaintManager) Run(stopCh <-chan struct{}) {
	klog.V(0).Infof("Starting NoExecuteTaintManager")

	for i := 0; i < UpdateWorkerSize; i++ {
		tc.nodeUpdateChannels = append(tc.nodeUpdateChannels, make(chan nodeUpdateItem, NodeUpdateChannelSize))
		tc.podUpdateChannels = append(tc.podUpdateChannels, make(chan podUpdateItem, podUpdateChannelSize))
	}

	// Functions that are responsible for taking work items out of the workqueues and putting them
	// into channels.
	go func(stopCh <-chan struct{}) {
		for {
			item, shutdown := tc.nodeUpdateQueue.Get()
			if shutdown {
				break
			}
			nodeUpdate := item.(nodeUpdateItem)
			hash := hash(nodeUpdate.nodeName, UpdateWorkerSize)
			select {
			case <-stopCh:
				tc.nodeUpdateQueue.Done(item)
				return
			case tc.nodeUpdateChannels[hash] <- nodeUpdate:
				// tc.nodeUpdateQueue.Done is called by the nodeUpdateChannels worker
			}
		}
	}(stopCh)

	go func(stopCh <-chan struct{}) {
		for {
			item, shutdown := tc.podUpdateQueue.Get()
			if shutdown {
				break
			}
			podUpdate := item.(podUpdateItem)
			hash := hash(podUpdate.nodeName, UpdateWorkerSize)
			select {
			case <-stopCh:
				tc.podUpdateQueue.Done(item)
				return
			case tc.podUpdateChannels[hash] <- podUpdate:
				// tc.podUpdateQueue.Done is called by the podUpdateChannels worker
			}
		}
	}(stopCh)

	wg := sync.WaitGroup{}
	wg.Add(UpdateWorkerSize)
	for i := 0; i < UpdateWorkerSize; i++ {
		go tc.worker(i, wg.Done, stopCh)
	}
	wg.Wait()
}
复制代码

在并行启动的work任务中,优先处理nodeUpdate的事件,等到nodeUpdate处理完成之后,再去处理podUpdate。处理nodeUpdate的方法对应handleNodeUpdate,podUpdate对应handlePodUpdate
handleNodeUpdate主要的作用就是通过监听到的nodeName获取node信息,通过node信息获取该node上对应的taints。然后对该node上所有的pod,依次执行processPodOnNode方法。方法如下:

func (tc *NoExecuteTaintManager) handleNodeUpdate(nodeUpdate nodeUpdateItem) {
	node, err := tc.getNode(nodeUpdate.nodeName)
	if err != nil {
		if apierrors.IsNotFound(err) {
			// Delete
			klog.V(4).Infof("Noticed node deletion: %#v", nodeUpdate.nodeName)
			tc.taintedNodesLock.Lock()
			defer tc.taintedNodesLock.Unlock()
			delete(tc.taintedNodes, nodeUpdate.nodeName)
			return
		}
		utilruntime.HandleError(fmt.Errorf("cannot get node %s: %v", nodeUpdate.nodeName, err))
		return
	}

	// Create or Update
	klog.V(4).Infof("Noticed node update: %#v", nodeUpdate)
	taints := getNoExecuteTaints(node.Spec.Taints)
	func() {
		tc.taintedNodesLock.Lock()
		defer tc.taintedNodesLock.Unlock()
		klog.V(4).Infof("Updating known taints on node %v: %v", node.Name, taints)
		if len(taints) == 0 {
			delete(tc.taintedNodes, node.Name)
		} else {
			tc.taintedNodes[node.Name] = taints
		}
	}()
	pods, err := getPodsAssignedToNode(tc.client, node.Name)
	if err != nil {
		klog.Errorf(err.Error())
		return
	}
	if len(pods) == 0 {
		return
	}
	// Short circuit, to make this controller a bit faster.
	if len(taints) == 0 {
		klog.V(4).Infof("All taints were removed from the Node %v. Cancelling all evictions...", node.Name)
		for i := range pods {
			tc.cancelWorkWithEvent(types.NamespacedName{Namespace: pods[i].Namespace, Name: pods[i].Name})
		}
		return
	}

	now := time.Now()
	for i := range pods {
		pod := &pods[i]
		podNamespacedName := types.NamespacedName{Namespace: pod.Namespace, Name: pod.Name}
		tc.processPodOnNode(podNamespacedName, node.Name, pod.Spec.Tolerations, taints, now)
	}
}
复制代码

handlePodUpdate通过获取到单一的pod信息与node信息,也是最终执行processPodOnNode方法。方法如下:

func (tc *NoExecuteTaintManager) handlePodUpdate(podUpdate podUpdateItem) {
	pod, err := tc.getPod(podUpdate.podName, podUpdate.podNamespace)
	if err != nil {
		if apierrors.IsNotFound(err) {
			// Delete
			podNamespacedName := types.NamespacedName{Namespace: podUpdate.podNamespace, Name: podUpdate.podName}
			klog.V(4).Infof("Noticed pod deletion: %#v", podNamespacedName)
			tc.cancelWorkWithEvent(podNamespacedName)
			return
		}
		utilruntime.HandleError(fmt.Errorf("could not get pod %s/%s: %v", podUpdate.podName, podUpdate.podNamespace, err))
		return
	}

	// We key the workqueue and shard workers by nodeName. If we don't match the current state we should not be the one processing the current object.
	if pod.Spec.NodeName != podUpdate.nodeName {
		return
	}

	// Create or Update
	podNamespacedName := types.NamespacedName{Namespace: pod.Namespace, Name: pod.Name}
	klog.V(4).Infof("Noticed pod update: %#v", podNamespacedName)
	nodeName := pod.Spec.NodeName
	if nodeName == "" {
		return
	}
	taints, ok := func() ([]v1.Taint, bool) {
		tc.taintedNodesLock.Lock()
		defer tc.taintedNodesLock.Unlock()
		taints, ok := tc.taintedNodes[nodeName]
		return taints, ok
	}()
	// It's possible that Node was deleted, or Taints were removed before, which triggered
	// eviction cancelling if it was needed.
	if !ok {
		return
	}
	tc.processPodOnNode(podNamespacedName, nodeName, pod.Spec.Tolerations, taints, time.Now())
}
复制代码

processPodOnNode方法主要将需要删除的Pod按照预定好的格式添加到taintEvictionQueue,该queue内的任务都是设置好定时任务时间的,在相应的时间内调用deletePodHandler方法去删除pod,该方法位于pkg/controller/nodelifecycle/scheduler/taint_manager.go下。方法如下:

func deletePodHandler(c clientset.Interface, emitEventFunc func(types.NamespacedName)) func(args *WorkArgs) error {
	return func(args *WorkArgs) error {
		ns := args.NamespacedName.Namespace
		name := args.NamespacedName.Name
		klog.V(0).Infof("NoExecuteTaintManager is deleting Pod: %v", args.NamespacedName.String())
		if emitEventFunc != nil {
			emitEventFunc(args.NamespacedName)
		}
		var err error
		for i := 0; i < retries; i++ {
			err = c.CoreV1().Pods(ns).Delete(name, &metav1.DeleteOptions{})
			if err == nil {
				break
			}
			time.Sleep(10 * time.Millisecond)
		}
		return err
	}
}
复制代码

所以,TaintManager的主要作用就是将需要驱逐的Pod配置好定时删除的任务,然后从相应的Node上一一删除。

doNoScheduleTaintingPassWorker

当开启taintNodeByCondition特性的时候,则会调用doNoScheduleTaintingPassWorker去对Node做NoSchedule的污点更新。调用的是doNoScheduleTaintingPass方法。方法如下:

func (nc *Controller) doNoScheduleTaintingPass(nodeName string) error {
	node, err := nc.nodeLister.Get(nodeName)
	if err != nil {
		// If node not found, just ignore it.
		if apierrors.IsNotFound(err) {
			return nil
		}
		return err
	}

	// Map node's condition to Taints.
	var taints []v1.Taint
	for _, condition := range node.Status.Conditions {
		if taintMap, found := nodeConditionToTaintKeyStatusMap[condition.Type]; found {
			if taintKey, found := taintMap[condition.Status]; found {
				taints = append(taints, v1.Taint{
					Key:    taintKey,
					Effect: v1.TaintEffectNoSchedule,
				})
			}
		}
	}
	if node.Spec.Unschedulable {
		// If unschedulable, append related taint.
		taints = append(taints, v1.Taint{
			Key:    schedulerapi.TaintNodeUnschedulable,
			Effect: v1.TaintEffectNoSchedule,
		})
	}

	// Get exist taints of node.
	nodeTaints := taintutils.TaintSetFilter(node.Spec.Taints, func(t *v1.Taint) bool {
		// only NoSchedule taints are candidates to be compared with "taints" later
		if t.Effect != v1.TaintEffectNoSchedule {
			return false
		}
		// Find unschedulable taint of node.
		if t.Key == schedulerapi.TaintNodeUnschedulable {
			return true
		}
		// Find node condition taints of node.
		_, found := taintKeyToNodeConditionMap[t.Key]
		return found
	})
	taintsToAdd, taintsToDel := taintutils.TaintSetDiff(taints, nodeTaints)
	// If nothing to add not delete, return true directly.
	if len(taintsToAdd) == 0 && len(taintsToDel) == 0 {
		return nil
	}
	if !nodeutil.SwapNodeControllerTaint(nc.kubeClient, taintsToAdd, taintsToDel, node) {
		return fmt.Errorf("failed to swap taints of node %+v", node)
	}
	return nil
}
复制代码

doNoScheduleTaintingPass主要做了以下工作:
1、根据nodeName获取node信息;
2、根据node.Status.Conditions字段,判断node是否需要添加NoSchedule污点,判断的标准如下:

只要处于任一状态,即需要添加NoSchedule污点;
3、如果Node为Unschedulable状态,同样添加NoSchedule的污点;
4、根据Node上已有的污点,判断之前添加的哪些污点是需要添加的,哪些是需要删除的;
5、调用 SwapNodeControllerTaint对Node进行污点的状态更新。

doNoExecuteTaintingPass与doEvictionPass

doNoExecuteTaintingPassdoEvictionPass两者只会执行其一。

当开启useTaintBasedEvictions特性的时候,调用 doNoExecuteTaintingPass方法为Node添加 NoExecute污点;而 doEvictionPass则是直接判断哪些Pod需要驱逐,直接去做删除工作。
doNoExecuteTaintingPass方法中,通过获取 zoneNoExecuteTainter内的数据对Node状态进行判断,如果需要则添加上NoExecute污点,并调用 SwapNodeControllerTaint方法更新该Node上的污点。zoneNoExecuteTainter的信息是通过 monitorNodeHealth方法获取到的,后面再分析。 doNoExecuteTaintingPass的方法如下:
doEvictionPass则是直接通过获取 zonePodEvictor内的数据,判断哪些Pod需要被驱除,则直接调用Pod的DELETE接口,完成Pod的驱逐任务。zonePodEvictor的信息也是通过 monitorNodeHealth方法获取到的。 doEvictionPass方法如下:
两种方法的不同在于, doNoExecuteTaintingPass只是对Node打上污点,而 doEvictionPass则是完成了最终的删除工作。 doEvictionPass的这种方式会导致某一个时间段内,大量的Pod需要被删除,会产生很大的流量;而 doNoExecuteTaintingPass通过给Node打上污点,让TaintManager去做最终的Pod删除工作,TaintManager的删除任务是分时间段定时执行的,所以不会产生这种大流量的问题。因此建议开启这个特性,在kube-controller-manager的启动参数加上 --feature-gates=TaintBasedEvictions=true即可。

monitorNodeHealth

前面几个goroutine的任务主要围绕着Taint来展开,而monitorNodeHealth则是定时更新Node的信息,并产生数据的来源。
monitorNodeHealth的主要任务可以分为以下步骤:
1、获取所有的Node信息,按照哪些是新增的、哪些是需要删除的以及哪些是需要重新规划的返回节点的相应信息;

2、对新增Node、删除Node以及待规划Node做相应的处理操作;
3、遍历所有的Node,更新Node状态,调用 tryUpdateNodeHealth方法;
4、根据获取到的Node状态,和原先的Node状态作对比,对Node做相应的污点标记。此段代码较长,基本结构如下
5、针对Node网络中断问题,根据不同的Node状态配置相应的驱逐速率,调用 handleDisruption方法。
接下来,针对每个步骤一一分析。

步骤1

首先通过List接口获取所有的Node信息,通过classifyNodes完成Node的划分。classifyNodes规则划分很简单,比对knownNodeSetallNodes,可以理解为knownNodeSet为上一次的数据,allNodes为新的数据,则:
1、如果在allNodes存在,在knownNodeSet不存在,为新增的Node;
2、如果在knownNodeSet存在,在allNodes不存在,为删除的Node;
3、如果在knownNodeSetallNodes都存在,但是没有zone states,为newZoneRepresentatives的Node。每个Node都要归属于一个Zone。

步骤2

在步骤1完成节点的划分之后,步骤2针对每种类型的节点做相应的处理操作。
1、待新增的Node,将其加入到knownNodeSet内缓存,通过addPodEvictorForNewZone为其归属一个Zone,通过useTaintBasedEvictions的开关控制,判断是标记Node为Reachable或是取消Pod的驱逐工作。总之就是表示这个Node可以开始正常使用了;
2、待删除的Node,将其从knownNodeSet内删除;
3、未划分Zone的Node,将其添加到Zone缓存中去。

步骤3

对获取到的所有的Node,调用PollImmediate方法,每20ms,重试5次,去更新Node的状态,主要调用了tryUpdateNodeHealth方法。tryUpdateNodeHealth方法值中,主要关注observedReadyConditioncurrentReadyCondition。可以理解为observedReadyCondition表示上一次的Node状态,currentReadyCondition表示当前的Node状态。以下的多重if-else都是根据这两个值来操作的。

步骤4

整个大的语句从currentReadyCondition不为空开始,分以下几种情况:
1、observedReadyCondition的值为False,即Node未Ready,给Node打上node.kubernetes.io/not-ready:NoExecute的污点或是直接驱逐Node上的Pod;
2、observedReadyCondition的值为Unknown,给Node打上node.kubernetes.io/unreachable:NoExecute的污点或是直接驱除Node上的Pod;
3、observedReadyCondition的值为True,表示Node是正常工作的状态,标记Node为Reachable或是停止驱逐Pod的操作;
4、currentReadyCondition不为True而observedReadyCondition为True,表示Node处于Not Ready的状态,标记Node为Not Ready,并更新Node上的Pod状态;
5、currentReadyCondition不为True并且配置了cloudprovider,做删除Node的操作。
整个大的循环主要的任务就是对Node的状态进行判断,做Node的污点标记或是驱逐相关操作。zoneNoExecuteTainterzonePodEvictor两个数据集的信息都是在此做相应的更新的。

步骤5

最终调用handleDisruption做网络中断的一些相关处理操作。
中断主要有以下几种状态:

handleDisruption中,通过 allAreFullyDisruptedallWasFullyDisrupted标记现在的zone状态和之前缓存的zone状态,分别表示最新的结果和上一次的结果信息。然后做三种处理操作:
1、如果新的状态为 fullDisruption,即全中断,表示所有Node都处于Not Ready的状态,此时恢复正常的驱逐速率,并停止做驱逐操作;
2、如果新的状态为 partialDisruption,即部分中断,表示部分Node处于Not Ready的状态,此时设置用户定义的驱逐速率;
3、如果新的状态为 normal,恢复到默认的驱逐速率。
主要就是根据不同的中断状态控制驱逐速率,维持系统的稳定性。
至此,NodeLifecycleController的任务完成。主要流程就是针对Node的不同状态更新Node信息,打上/删除Node上相应的污点保证Node是否可被调度,并定时做Pod的驱逐操作。

转载于:https://juejin.im/post/5cdbd057f265da038e54ce57

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值