一、相关知识
1、进程调度
无论是在批处理系统还是分时系统中,用户进程数一般都多于处理机数、这将导致它们互相争夺处理机。另外,系统进程也同样需要使用处理机。这就要求进程调度程序按一定的策略,动态地把处理机分配给处于就绪队列中的某一个进程,以使之执行。
2.schedule函数
schedule() 是 linux 调度器中最重要的一个函数,就像 fork 函数一样优雅,它没有参数,没有返回值,却实现了内核中最重要的功能,当需要执行实际的调度时,直接调用 shedule(),进程就这样神奇地停止了,而另一个新的进程占据了 CPU。
schedule主要完成的工作内容如下:
(1)sched_submit_work用于检测当前进程是否有plugged io需要处理,由于当前进程执行schedule后,有可能会进入休眠,所以在休眠之前需要把plugged io处理掉放置死锁。
(2)执行__schedule()这个函数是调度的核心处理函数,当前CPU会选择到下一个合适的进程去执行了。
(3)need_resched()执行到这里时说明当前进程已经被调度器再次执行了,此时要判断是否需要再次执行调度。
3.switch_to
linux内核进程切换最重要的一个部分就是宏定义switch_to,进程切换过程是由一段汇编代码switch_to完成,主要功能是保存当前进程的esp和eip,恢复切换到的进程的esp和eip。
二、实验过程
1.在内核代码中搜索schedule函数(),schedule()函数在内核的kernel/sched/core.c位置
2.将menu目录删除,利用git命令克隆一个新的menu目录
cd ~/LinuxeKernel/
rm -rf menu
git clone https://github.com/mengning/menu.git
3.配置运行MenuOS系统
cd menu
ls
make rootfs
4.启动MenuOs系统,增加“-s -S”启动参数打开调试模式
cd ..
qemu -kernel linux-3.18.6/arch/x86/boot/bzImage -initrd rootfs.img -s -S
5.另外打开一个shell窗口进行gdb远程调试
cd ~/LinuxKernel/
gdb
file linux-3.18.6/vmlinux
target remote:1234
6. 设置断点到schedule、context_switch、switch_to、pick_next_task
三、实验分析
1.context_switch
static inline void context_switch(struct rq *rq, struct task_struct *prev, struct task_struct *next)
{
...
arch_start_context_switch(prev);
if (unlikely(!mm)) { //如果被切换进来的进程的mm为空切换,内核线程mm为空
next->active_mm = oldmm; //将共享切换出去的进程的active_mm
atomic_inc(&oldmm->mm_count); //有一个进程共享,所有引用计数加一
enter_lazy_tlb(oldmm, next); //将per cpu变量cpu_tlbstate状态设为LAZY
} else //普通mm不为空,则调用switch_mm切换地址空间
switch_mm(oldmm, mm, next);
...
//这里切换寄存器状态和栈
switch_to(prev, next, prev);
2.switch_to关键代码部分
#define switch_to(prev, next, last)
do {
/*
* Context-switching clobbers all registers, so we clobber
* them explicitly, via unused output variables.
* (EAX and EBP is not listed because EBP is saved/restored
* explicitly for wchan access and EAX is the return value of
* __switch_to())
*/
unsigned long ebx, ecx, edx, esi, edi;
asm volatile(
"pushfl\n\t" //保存当前进程flags
"pushl %%ebp\n\t" //当前进程堆栈基址压栈
"movl %%esp,%[prev_sp]\n\t" //保存ESP,将当前堆栈栈顶保存起来
"movl %[next_sp],%%esp\n\t" //更新ESP,将下一栈顶保存到ESP中
// 完成内核堆栈的切换
"movl $1f,%[prev_ip]\n\t" //保存当前进程的EIP
"pushl %[next_ip]\n\t" //将next进程起点压入堆栈,即next进程的栈顶为起点
__switch_canary //next_ip一般为$1f,对于新创建的子进程是ret_from_fork
"jmp __switch_to\n" //prve进程中,设置next进程堆栈,jmp与call不同,是通过寄存器传递参数(call通过堆栈),所以ret时弹出的是之前压入栈顶的next进程起点
//完成EIP的切换
"1:\t" //next进程开始执行
"popl %%ebp\n\t" //restore EBP
"popfl\n" //restore flags
//输出量
: [prev_sp] "=m" (prev->thread.sp), //保存当前进程的esp
[prev_ip] "=m" (prev->thread.ip), //保存当前进仓的eip
"=a" (last),
//要破坏的寄存器
"=b" (ebx), "=c" (ecx), "=d" (edx),
"=S" (esi), "=D" (edi)
__switch_canary_oparam
//输入量
: [next_sp] "m" (next->thread.sp), //next进程的内核堆栈栈顶地址,即esp
[next_ip] "m" (next->thread.ip), //next进程的eip
// regparm parameters for __switch_to():
[prev] "a" (prev),
[next] "d" (next)
__switch_canary_iparam
: //重新加载段寄存器
"memory");
} while (0)
3.进程调度的时机
中断是指在计算机执行期间,系统内发生任何非寻常的或非预期的急需处理事件,使得CPU暂时中断当前正在执行的程序而转去执行相应的时间处理程序。待处理完毕后又返回原来被中断处继续执行或调度新的进程执行的过程。引起中断的事件称为中断源。中断源向CPU提出处理的请求称为中断请求。发生中断时被打断程序的暂停点称为断点。CPU暂停现行程序而转为响应中断请求的过程称为中断响应。处理中断源的程序称为中断处理程序。CPU执行有关的中断处理程序称为中断处理。而返回断点的过程称为中断返回。中断的实现由软件和硬件综合完成,硬件部分叫做硬件装置,软件部分称为软件处理程序。
-硬中断:由与系统相连的外设(比如网卡、硬盘)自动产生的。主要是用来通知操作系统系统外设状态的变化。比如当网卡收到数据包的时候,就会发出一个中断。我们通常所说的中断指的是硬中断(hardirq)。
-软中断:为了满足实时系统的要求,中断处理应该是越快越好。linux为了实现这个特点,当中断发生的时候,硬中断处理那些短时间就可以完成的工作,而将那些处理事件比较长的工作,放到中断之后来完成,也就是软中断(softirq)来完成。
-schedule函数
-Linux内核通过schedule函数实现进程调度,schedule函数在运行队列中找到一个进程,把CPU分配给它。所以调用schedule函数的时候就是进程调度的时机。
4.调度策略
Linux系统中常用的几种调度策略为SCHED_NORMAL、SCHED_FIFO、SCHED_RR。
其中SCHED_NORMAL是用于普通进程的调度类,而SCHED_FIFO和SCHED_RR是用于实时进程的调度类,优先级高于SCHED_NORMAL。内核根据进程的优先级来区分普通进程与实时进程,Linux内核进程优先级为0139,数值越高,优先级越低,0为最高优先级。实时进程的优先级取值为099,普通进程只具有nice值,nice值映射到优先级为100~139。