理解进程调度时机跟踪分析进程调度与进程切换的过程

  操作系统原理中介绍了大量进程调度算法,这些算法从实现的角度看仅仅是从运行队列中选择一个新进程,选择的过程中运用了不同的策略而已。

  对于理解操作系统的工作机制,反而是进程的调度时机与进程的切换机制更为关键。

进程调度和上下文

一般来说,进程调度分为三种类型:

  • 中断处理过程(包括时钟中断、I/O 中断、系统调用和异常)中,直接调用schedule,或者返回用户态时根据 need_resched 标记调用 schedule;

  • 内核线程可以直接调用 schedule 进行进程切换,也可以在中断处理过程中进行调度,也就是说内核线程作为一类的特殊的进程可以主动调度,也可以被动调度;

  • 用户态进程无法实现主动调度,仅能通过陷入内核态后的某个时机点进行调度,即在中断处理过程中进行调度。

      为了控制进程的执行,内核必须有能力挂起正在 CPU 上执行的进程,并恢复以前挂起的某个进程的执行的过程,叫做进程切换、任务切换、上下文切换。挂起正在 CPU 上执行的进程,与中断时保存现场是有区别的,中断前后是在同一个进程上下文中,只是由用户态转向内核态执行。

进程上下文信息:

  • 用户地址空间:包括程序代码,数据,用户堆栈等

  • 控制信息:进程描述符,内核堆栈等

  • 硬件上下文(注意中断也要保存硬件上下文只是保存的方法不同)

  • schedule 函数选择一个新的进程来运行,并调用 context_switch 宏进行上下文的切换,这个宏又调用 switch_to 宏来进行关键上下文切换

  • switch_to 宏中定义了 prev 和 next 两个参数:prev 指向当前进程,next 指向被调度的进程

进程切换函数

  schedule函数为调度函数,用以选择切换进程,其主要调用的函数有 pick_next_task,context_switch,在context_switch中调用switch_to。

schedule

static void __sched __schedule(void)
{
    struct task_struct *prev, *next;
    unsigned long *switch_count;
    struct rq *rq;
    int cpu;

need_resched:
    preempt_disable();
    cpu = smp_processor_id();
    rq = cpu_rq(cpu);
    rcu_note_context_switch(cpu);
    prev = rq->curr;

    schedule_debug(prev);

    if (sched_feat(HRTICK))
        hrtick_clear(rq);


    smp_mb__before_spinlock();
    raw_spin_lock_irq(&rq->lock);

    switch_count = &prev->nivcsw;
    if (prev->state && !(preempt_count() &  PREEMPT_ACTIVE)) {
        if (unlikely(signal_pending_state(prev->state, prev))) {
            prev->state = TASK_RUNNING;
        } else {
            deactivate_task(rq, prev, DEQUEUE_SLEEP);
            prev->on_rq = 0;


        if (prev->flags & PF_WQ_WORKER) {
            struct task_struct *to_wakeup;

            to_wakeup = wq_worker_sleeping(prev, cpu);
            if (to_wakeup)
                try_to_wake_up_local(to_wakeup);
        }
    }
    switch_count = &prev->nvcsw;
}

if (task_on_rq_queued(prev) || rq->skip_clock_update < 0)
    update_rq_clock(rq);

    next = pick_next_task(rq, prev);
    clear_tsk_need_resched(prev);
    clear_preempt_need_resched();
    rq->skip_clock_update = 0;

    if (likely(prev != next)) {
        rq->nr_switches++;
        rq->curr = next;
        ++*switch_count;

        context_switch(rq, prev, next); /* unlocks the rq */

        cpu = smp_processor_id();
        rq = cpu_rq(cpu);
    } else
        raw_spin_unlock_irq(&rq->lock);

    post_schedule(rq);

    sched_preempt_enable_no_resched();
    if (need_resched())
        goto need_resched;
}

schedule 函数主要做了这么几件事:

1、针对抢占的处理

2、raw_spin_lock_irq(&rq->lock);

3、检查prev的状态,并且重设state的状态

4、next = pick_next_task(rq, prev); //进程调度

5、更新就绪队列的时钟

6、context_switch(rq, prev, next); //进程上下文切换

pick_next_task //进程调度算法都封装这个函数内部

static inline struct task_struct *
pick_next_task(struct rq *rq, struct task_struct *prev)
{
    const struct sched_class *class = &fair_sched_class;
    struct task_struct *p;


    if (likely(prev->sched_class == class &&
       rq->nr_running == rq->cfs.h_nr_running)) {
        p = fair_sched_class.pick_next_task(rq, prev);
        if (unlikely(p == RETRY_TASK))
            goto again;

    /* assumes fair_sched_class->next ==    idle_sched_class */
        if (unlikely(!p))
            p = idle_sched_class.pick_next_task(rq, prev);

        return p;
    }

again:
    for_each_class(class) {
        p = class->pick_next_task(rq, prev);
        if (p) {
            if (unlikely(p == RETRY_TASK))
                goto again;
            return p;
        }
    }

    BUG();
}

context_switch //进程上下文切换

context_switch(struct rq *rq, struct task_struct *prev,
       struct task_struct *next)
{
    struct mm_struct *mm, *oldmm;

    prepare_task_switch(rq, prev, next);

    mm = next->mm;
    oldmm = prev->active_mm;

    arch_start_context_switch(prev);

    if (!mm) {
        next->active_mm = oldmm;
        atomic_inc(&oldmm->mm_count);
        enter_lazy_tlb(oldmm, next);
    } else
        switch_mm(oldmm, mm, next);

    if (!prev->mm) {
        prev->active_mm = NULL;
        rq->prev_mm = oldmm;
    }

    spin_release(&rq->lock.dep_map, 1, _THIS_IP_);

    context_tracking_task_switch(prev, next);

    switch_to(prev, next, prev);

    barrier();

    finish_task_switch(this_rq(), prev);
}   

switch_to  //利用了prev和next两个参数:prev指向当前进程,next指向被调度的进程,switch_to内部是汇编代码,用以切换进程

#define switch_to(prev, next, last)                    
do {                                 

unsigned long ebx, ecx, edx, esi, edi;              

asm volatile("pushfl\n\t"      /* 保存当前进程的flags */   
       "pushl %%ebp\n\t"        /* 把当前进程的当前的ebp压入当前进程的栈   */ 
       "movl %%esp,%[prev_sp]\n\t"  /*保存当前的esp到prev->thread.sp指向的内存中   */ 
       "movl %[next_sp],%%esp\n\t"  /* 重置esp,把下个进程的next->thread.sp赋予esp */ 
       "movl $1f,%[prev_ip]\n\t"    /*把1:的代码在内存中存储的地址保存到prev->thread.ip中*/ 
       "pushl %[next_ip]\n\t"   /*重置eip   */    
       __switch_canary                   
       "jmp __switch_to\n" 
       "1:\t"                        
      "popl %%ebp\n\t"     /* 重置ebp  */    
       "popfl\n"         /* 重置flags*/  

       : [prev_sp] "=m" (prev->thread.sp),     
         [prev_ip] "=m" (prev->thread.ip),        
         "=a" (last),                 

         "=b" (ebx), "=c" (ecx), "=d" (edx),      
         "=S" (esi), "=D" (edi)             

         __switch_canary_oparam                

       : [next_sp]  "m" (next->thread.sp),        
         [next_ip]  "m" (next->thread.ip),       


         [prev]     "a" (prev),              
         [next]     "d" (next)               

         __switch_canary_iparam                

      "memory");                  
} while (0)

  switch_to 是 A 进程到 B 进程的过渡,我们可以认为在 switch_to 这个点上,A 进程被切出,B 进程被切入。进入 switch_to 的宏里面之后,首先 pushfl 和 pushl ebp 肯定仍然属于进程 A,之后把 esp 指向了 B 的堆栈,严格的说,从此时开始的指令流都属于 B 进程了。但是,这个时候 B 进程还没有完全准备好继续运行,因为 ebp、硬件上下文等内容还没有切换成 B 的,剩下的部分宏代码就是完成这些事情。也就是说,对于 A 进程它始终没有感觉到自己被打断过,它认为自己一直是不间断执行的。switch_to 这条“指令”,除了改变了 A 进程中的 prev 变量外,对 A 没有其它任何影响。在系统中任何进程看到的都是这个样子,所有进程都认为自己在不间断的独立运行。然而,实际上 switch_to 的执行并不是一瞬间完成的,switch_to 执行花了很长很长的时间,但是,在执行完 switch_to 之后,这段时间被从 A 的记忆中抹除,所以 A 并没有觉察到自己被打断过。

gdb跟踪schedule函数

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

总结

最一般情况:正在运行的用户态进程X切换到运行用户态进程Y的过程

  1. 正在运行的用户态进程X

  2. 发生中断——save cs:eip/esp/eflags(current) to kernel stack,then load cs:eip(entry of a specific ISR) and ss:esp(point to kernel stack).

  3. SAVE_ALL //保存现场

  4. 中断处理过程中或中断返回前调用了schedule(),其中的switch_to做了关键的进程上下文切换

  5. 标号1之后开始运行用户态进程Y(这里Y曾经通过以上步骤被切换出去过因此可以从标号1继续执行)

  6. restore_all //恢复现场

  7. iret - pop cs:eip/ss:esp/eflags from kernel stack

  8. 继续运行用户态进程Y

几种特殊的情况:

  • 通过中断处理过程中的调度时机,用户态进程与内核线程之间互相切换和内核线程之间互相切换,与最一般的情况非常类似,只是内核线程运行过程中发生中断没有进程用户态和内核态的转换;

  • 内核线程主动调用schedule(),只有进程上下文的切换,没有发生中断上下文的切换,与最一般的情况略简略;

  • 创建子进程的系统调用在子进程中的执行起点返回用户态;

fork创建子进程七星起点是ret_ from _fork

  • 加载一个新的可执行程序后返回到用户态的情况,如execve;
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值