《Linux操作系统分析》之理解进程调度时机跟踪分析进程调度与进程切换的过程

本篇文章通过用gdb对进程调度时机跟踪来分析在Linux系统中进程调度与进程切换的过程。

相关知识

首先关于这篇文章会介绍一些用到的知识。

一、进程调度的分类:

传统上将进程分类为:“I/O受限(I/O-bound)”和“CPU受限(CPU-bound)”。前者频繁地使用I/O设备,并花费很多时间等待I/O操作的完成;后者则需要大量的CPU时间的数值计算的应用程序。

另一种分法,分为三类:交互式进程(interactive process)、批处理进程(batch process)、实时进程(real-time process)

二、进程的调度,调度的发生主要有两种方式:

1:主动式调度(自愿调度)

在内核中主动直接调用进程调度函数schedule(),当进程需要等待资源而暂时停止运行时,会把状态置于挂起(睡眠),并主动请求调度,让出cpu。
2:被动式调度(抢占式调度、强制调度):用户抢占和内核抢占
(1)用户抢占发生在:从系统调用返回用户空间和从中断处理程序返回用户空间。

(2)内核抢占:在不支持内核抢占的系统中,进程/线程一旦运行于内核空间,就可以一直执行,直到它主动放弃或时间片耗尽为止。这样一些非常紧急的进程或线程将长时间得不到运行。

三、调度的算法有:

1:先来先服务和短作业(进程)优先调度算法
(1)先来先服务调度算法

(2)短作业(进程)优先调度算法
2:高优先权优先调度算法
(1)优先权调度算法的类型

(2)高响应比优先调度算法
3:基于时间片的轮转调度算法
(1)时间片轮转法

(2)多级反馈队列调度算法

其他详细的内容可以参考《深入理解linux内核》第七章。


实验过程:

试验环境的搭建,请大家参考我的《Linux操作系统分析》之分析Linux内核创建一个新进程的过程这篇博客。

下面是实验过程中的一些截图:

首先是设置断点,以便进行跟踪。


然后设置完成后,执行exec命令,就可以进行跟踪,跟踪结果如下:



分析过程:

通过上面的实验结果,我们可以看出程序的执行切换的过程,大概如下:

 schedule() -> pick_next_task()->context_switch() -> switch_to -> __switch_to()

它们的功能如下:

schedule()函数选择一个新的进程来运行,并调用context_switch进行上下文的切换,这个宏调用switch_to来进行关键上下文切换 
next = pick_next_task(rq, prev);   进程调度算法都封装这个函数内部,通过这个函数选出一个进程作为下一个执行的进行。
context_switch(rq, prev, next);  进程上下文切换
switch_to利用了prev和next两个参数:prev指向当前进程,next指向被调度的进程,来进行进程的切换。

schedule()的代码如下:

asmlinkage __visible void __sched schedule(void)
{
	struct task_struct *tsk = current;

	sched_submit_work(tsk);
	__schedule();//调用__schedule()
}
__schedule的代码,删减了一下,如下:

static void __sched __schedule(void)
{
	struct task_struct *prev, *next;//定义两个指针,指向当前和下一个进程 
	unsigned long *switch_count;  //进程切换次数
	struct rq *rq;	//就绪队列
	int cpu;

need_resched:
	preempt_disable();	//关闭内核抢占
	cpu = smp_processor_id();	//多CPU下,选择其一 
	rq = cpu_rq(cpu);	//与CPU相关的rq保存在rq中
	rcu_note_context_switch(cpu);
	prev = rq->curr;	//将rq当前的值赋给prev

 
	//省略
	 
	if (task_on_rq_queued(prev) || rq->skip_clock_update < 0)
		update_rq_clock(rq);

	next = pick_next_task(rq, prev);	//根据调度算法,选择一个进程作为下一个执行的进程 
	clear_tsk_need_resched(prev);
	clear_preempt_need_resched();
	rq->skip_clock_update = 0;

	if (likely(prev != next)) {	//如果prev和next是不同进程
		rq->nr_switches++;	//队列切换次数更新
		rq->curr = next;
		++*switch_count;	//进程切换次数更新

		context_switch(rq, prev, next); /* unlocks the rq */	//进程上下文的切换
		/*
		 * The context switch have flipped the stack from under us
		 * and restored the local variables which were saved when
		 * this task called schedule() in the past. prev == current
		 * is still correct, but it can be moved to another cpu/rq.
		 */
		cpu = smp_processor_id();
		rq = cpu_rq(cpu);
	} else		//如果是同一个进程不需要切换
		raw_spin_unlock_irq(&rq->lock);

	post_schedule(rq);

	sched_preempt_enable_no_resched();//开启抢占
	if (need_resched())
		goto need_resched;
}
在__schedule执行的过程中,又执行了  pick_next_task()和 context_switch() , pick_next_task()是进程调度通过调度算法,选择出一个就绪态的进程给系统。我们分析一下context_switch()这个函数。
context_switch(struct rq *rq, struct task_struct *prev,
	       struct task_struct *next)
{
	struct mm_struct *mm, *oldmm;	//初始化进程地址管理结构体mm和oldmm

	prepare_task_switch(rq, prev, next);	//完成进程切换的准备工作

	mm = next->mm;
	oldmm = prev->active_mm;	//之前的active_mm
	
	//省略 
	
	switch_to(prev, next, prev);	//切换

	barrier();
	/*
	 * this_rq must be evaluated again because prev may have moved
	 * CPUs since it called schedule(), thus the 'rq' on its stack
	 * frame will be invalid.
	 */
	finish_task_switch(this_rq(), prev);	//完成一些清理,正确的释放锁
}
在这个函数里,调用了 switch_to()函数,我们看一下这个函数:

#define switch_to(prev, next, last)					\
do {									\
	/*								\
	 * Context-switching clobbers all registers, so we clobber	\
	 * them explicitly, via unused output variables.		\
	 * (EAX and EBP is not listed because EBP is saved/restored	\
	 * explicitly for wchan access and EAX is the return value of	\
	 * __switch_to())						\
	 */								\
	unsigned long ebx, ecx, edx, esi, edi;				\
									\
	asm volatile("pushfl\n\t"		/* save    flags */	\
		     "pushl %%ebp\n\t"		/* save    EBP   */	\
		     "movl %%esp,%[prev_sp]\n\t"	/* save    ESP   */ \
		     "movl %[next_sp],%%esp\n\t"	/* restore ESP   */ \
		     "movl $1f,%[prev_ip]\n\t"	/* save    EIP   */	\
		     "pushl %[next_ip]\n\t"	/* restore EIP   */	\
		     __switch_canary					\
		     "jmp __switch_to\n"	/* regparm call  */	\
		     "1:\t"						\
		     "popl %%ebp\n\t"		/* restore EBP   */	\
		     "popfl\n"			/* restore flags */	\
									\
		     /* output parameters */				\
		     : [prev_sp] "=m" (prev->thread.sp),		\
		       [prev_ip] "=m" (prev->thread.ip),		\
		       "=a" (last),					\
									\
		       /* clobbered output registers: */		\
		       "=b" (ebx), "=c" (ecx), "=d" (edx),		\
		       "=S" (esi), "=D" (edi)				\
		       							\
		       __switch_canary_oparam				\
									\
		       /* input parameters: */				\
		     : [next_sp]  "m" (next->thread.sp),		\
		       [next_ip]  "m" (next->thread.ip),		\
		       							\
		       /* regparm parameters for __switch_to(): */	\
		       [prev]     "a" (prev),				\
		       [next]     "d" (next)				\
									\
		       __switch_canary_iparam				\
									\
		     : /* reloaded segment registers */			\
			"memory");					\
} while (0)
switch_to是一个宏定义,完成进程从prev到next的切换。

1、prev的值送入eax,next的值送入edx。

2、保护prev进程的eflags和ebp寄存器内容,这些内容保存在prev进程的内核堆栈中。

3、将prev的esp寄存器中的数据保存在prev->thread.esp中,即将prev进程的内核堆栈保存起来。

4、将next->thread.esp中的数据存入esp寄存器中,这是加载next进程的内核堆栈。

5、把标号1:的地址保存到prev->thread.ip中,然后把next->thread.ip压入next进程的内核堆栈中。(如果之前next也被switch_to出去过,那么next->thread.ip里存的就是下面这个1f的标号,但如果next进程刚刚被创建,之前没有被switch_to出去过,那么next->thread.ip里存的将是ret_ftom_fork

6、跳转到__switch_to函数处执行。(这里不用call __switch_to而用jmp,因为call会导致自动把下面这句话的地址(也就是1:)压栈,然后__switch_to()就必然只能ret到这里,而无法根据需要ret到ret_from_fork 

7、执行到这里,prev进程重新获得CPU,恢复prev进程的ebp和eflags内容。

8、将eax的内容存入last参数。

在这里使用到了金丝雀,__switch_canary是现代操作系统防止栈溢出攻击的金丝雀技术。 

然后到此,进程的切换已经分析完了。


总结:

一、进程调度的时机
1、中断处理过程(包括时钟中断、I/O中断、系统调用和异常)中,直接调用schedule(),或者返回用户态时根据need_resched标记调用schedule();
2、内核线程可以直接调用schedule()进行进程切换,也可以在中断处理过程中进行调度,也就是说内核线程作为一类的特殊的进程可以主动调度,也可以被动调度;
3、用户态进程无法实现主动调度,仅能通过陷入内核态后的某个时机点进行调度,即在中断处理过程中进行调度。
二、进程的切换
1、为了控制进程的执行,内核必须有能力挂起正在CPU上执行的进程,并恢复以前挂起的某个进程的执行,这叫做进程切换、任务切换、上下文切换;
2、挂起正在CPU上执行的进程,与中断时保存现场是不同的,中断前后是在同一个进程上下文中,只是由用户态转向内核态执行;
3、进程上下文包含了进程执行需要的所有信息
3.1、用户地址空间: 包括程序代码,数据,用户堆栈等
3.2、控制信息 :进程描述符,内核堆栈等
3.3、硬件上下文(注意中断也要保存硬件上下文只是保存的方法不同)
4、进程切换执行的流行

 schedule() -> pick_next_task()->context_switch() -> switch_to -> __switch_to()
三、几种特殊情况
1、通过中断处理过程中的调度时机,用户态进程与内核线程之间互相切换和内核线程之间互相切换,与最一般的情况非常类似,只是内核线程运行过程中发生中断没有进程用户态和内核态的转换;
2、内核线程主动调用schedule(),只有进程上下文的切换,没有发生中断上下文的切换,与最一般的情况略简略;
3、创建子进程的系统调用在子进程中的执行起点及返回用户态,如fork。(对应switch_to流程中的第6步,此时返回到ret_from_fork
4、加载一个新的可执行程序后返回到用户态的情况,如execve。(对应switch_to流程中的第6步,此时静态链接返回到程序的start处,动态链接则返回到动态链接器处

备注:

杨峻鹏 + 原创作品转载请注明出处 + 《Linux内核分析》MOOC课程http://mooc.study.163.com/course/USTC-1000029000

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值