linux操作系统分析实验—基于mykernel的时间片轮转多道程序实现与分析
学号384 原创作业转载请注明出处+中国科学技术大学孟宁老师的Linux操作系统分析 https://github.com/mengning/linuxkernel/
实验环境介绍与搭建
1.mykernel简介
这个是由孟宁老师建立的一个用于开发自己的操作系统内核的平台,它基于Linux Kernel 3.9.4 source code。您可以在这里找到mykernel的源代码https://github.com/mengning/mykernel并按照上面的指南部署到您的系统上。也可以使用实验楼http://www.shiyanlou.com/courses/195提供的虚拟机,上面已经部署好了这个平台。本文是使用自己的虚拟机中ubuntu操作系统,部署环境完成,具体实现见下。
2.环境搭建
为了便于管理,首先新建MyKernel文件夹,然后下载好kernel内核linux-3.9.4以及kernel补丁包mykernel_for_linux3.9.4sc.patch。
wget https://www.kernel.org/pub/linux/kernel/v3.x/linux-3.9.4.tar.xz
wget https://raw.github.com/mengning/mykernel/master/mykernel_for_linux3.9.4sc.patch
并使用tar xvf linux-3.9.4.jar
将压缩包解压。
进入linux-3.9.4文件中,使用下载好的补丁包开始打补丁。
patch -p1 < ../mykernel_for_linux3.9.4sc.patch
然后进行编译步骤。首先使用make allnoconfig
进行复位,然后make
进行编译。
这里make过程中可能遇到的error,是报错没有compiler-gcc5.h这个文件,原因是linux-3.9.4内核版本老,没有此文件。解决方式是:进入linux-3.9.4文件中include/linux文件夹中,使用cp compiler-gcc4.h compiler-gcc5.h
将compiler-gcc4.h拷贝给compiler-gcc5.h。
然后执行编程make并等待完成。
接下来安装qemu,并使用qemu测试内核是否正常运行。若显示下面的弹窗内容,表明linux-3.9.4布置完成。
sudo apt-get install qemu
sudo ln –s /usr/bin/qemu-system-i386 /usr/bin/qemu
qemu -kernel arch/x86/boot/bzImage
实验操作
1.实验操作主要是实现一个时间片轮转多道程序。
实验步骤:从https://github.com/mengning/mykernel这里获取实验用的源代码,主要就这三个文件:mypcb.h,myinterrupt.c和mymain.c。将这三个文件拷贝到mykernel平台中,即要覆盖前文所述的mykernel文件夹下mymain.c和myinterrupt.c,并新增mypcb.h。
然后进行编译运行。
make allnoconfig
make
qemu -kernel arch/x86/boot/bzImage
2.代码分析
主要分析实验中改写的三个文件,其作用如下:
mypcb.h : 此文件主要定义了一个PCB结构体,即所谓的进程管理块,用来记录进程的有关信息。
mymain.c: 该文件就是完成了内核的初始化工作,并且创建了4个进程,进程从0号开始执行,并且根据标志位判断进程是否需要调度,当标志位为1时表示进程需要调度,此时会执行my_schedule()方法来完成相应的调度。
myinterrupt.c:此文件主要是产生时钟中断,用一个时间计数器周期性的检查循环条件,当条件满足时便会产生中断,并将进程调度标志位置1,当标志位为1时,进程便会执行my_schedule()方法,首先将当前进程的信息通过嵌入式汇编语句保存到堆栈当中,然后将下一个进程的地址赋给当前运行程序的指针,完成调度。
具体代码如下:
mypcb.h:
/*
* linux/mykernel/mypcb.h
*
* Kernel internal PCB types
*
* Copyright (C) 2013 Mengning
*
*/
#define MAX_TASK_NUM 4
#define KERNEL_STACK_SIZE (unsigned long)1024*2
/* CPU-specific state of this task */
struct Thread {
unsigned long ip;
unsigned long sp;
};
typedef struct PCB{
int pid;
volatile long state; /* -1 unrunnable, 0 runnable, >0 stopped */
unsigned long stack[KERNEL_STACK_SIZE];
/* CPU-specific state of this task */
struct Thread thread;
unsigned long task_entry;
struct PCB *next;
}tPCB;
void my_schedule(void);
该头文件中定义了一个两个结构体,第一个是struct Thread,它用来存储线程的ip和sp。另外一个是PCB(进程控制块),这是操作系统中一个很重要的数据结构,所有关于进程的信息都存储在PCB中,这里代码中简化了PCB的结构,只给出了一些最基本的信息:
pid:进程号
state:进程状态,在模拟系统中,所有进程控制块信息都会被创建出来,其初始化值就是-1,如果被调度运行起来,其值就会变成0
stack:进程使用的堆栈
thread:当前正在执行的线程信息
task_entry:进程入口函数
next:指向下一个PCB,模拟系统中所有的PCB是以链表的形式组织起来的。
最后还有一个函数的声明 my_schedule,它的实现在my_interrupt.c中,在mymain.c中的各个进程函数会根据一个全局变量的状态来决定是否调用它,从而实现主动调度。
mymain.c:
/*
* linux/mykernel/mymain.c
*
* Kernel internal my_start_kernel
*
* Copyright (C) 2013 Mengning
*
*/
#include <linux/types.h>
#include <linux/string.h>
#include <linux/ctype.h>
#include <linux/tty.h>
#include <linux/vmalloc.h>
#include "mypcb.h"
tPCB task[MAX_TASK_NUM];
tPCB * my_current_task = NULL;
volatile int my_need_sched = 0;
void my_process(void);
void __init my_start_kernel(void)
{
int pid = 0;
int i;
/* Initialize process 0*/
task[pid].pid = pid;
task[pid].state = 0;/* -1 unrunnable, 0 runnable, >0 stopped */
task[pid].task_entry = task[pid].thread.ip = (unsigned long)my_process;
task[pid].thread.sp = (unsigned long)&task[pid].stack[KERNEL_STACK_SIZE-1];
task[pid].next = &task[pid];
/*fork more process */
for(i=1;i<MAX_TASK_NUM;i++)
{
memcpy(&task[i],&task[0],sizeof(tPCB));
task[i].pid = i;
//*(&task[i].stack[KERNEL_STACK_SIZE-1] - 1) = (unsigned long)&task[i].stack[KERNEL_STACK_SIZE-1];
task[i].thread.sp = (unsigned long)(&task[i].stack[KERNEL_STACK_SIZE-1]);
task[i].next = task[i-1].next;
task[i-1].next = &task[i];
}
/* start process 0 by task[0] */
pid = 0;
my_current_task = &task[pid];
asm volatile(
"movl %1,%%esp\n\t" /* set task[pid].thread.sp to esp */
"pushl %1\n\t" /* push ebp */
"pushl %0\n\t" /* push task[pid].thread.ip */
"ret\n\t" /* pop task[pid].thread.ip to eip */
:
: "c" (task[pid].thread.ip),"d" (task[pid].thread.sp) /* input c or d mean %ecx/%edx*/
);
}
int i = 0;
void my_process(void)
{
while(1)
{
i++;
if(i%10000000 == 0)
{
printk(KERN_NOTICE "this is process %d -\n",my_current_task->pid);
if(my_need_sched == 1)
{
my_need_sched = 0;
my_schedule();
}
printk(KERN_NOTICE "this is process %d +\n",my_current_task->pid);
}
}
}
代码中看出,这里讲PCB实现成了一个环形队列,每次创建新的进程时,都将该进程插入到队列的最后一个位置,然后将该进程指向第一个进程。创建好进程之后,该函数中最重要的一段代码出现了,该部分利用嵌入式汇编来启动0号进程。
asm volatile(
"movl %1,%%esp\n\t" /* set task[pid].thread.sp to esp */
"pushl %1\n\t" /* push ebp */
"pushl %0\n\t" /* push task[pid].thread.ip */
"ret\n\t" /* pop task[pid].thread.ip to eip */
:
: "c" (task[pid].thread.ip),"d" (task[pid].thread.sp) /* input c or d mean %ecx/%edx*/
首先将PCB中的sp信息放入esp寄存器,然后将ebp压栈(因为此时进程堆栈为空栈,所以压入esp相当于ebp),第三第四句我们将eip压栈然后ret(即pop eip),下一条指令就会跳转到0号进程的第一条指令开始执行,在这里就是my_process()。my_process干了一件很简单的事情,就是循环等待并print进程id,然后观察变量my_need_sched是否为1,如果是则主动进入调度函数my_schedule开始执行。
myinterrupt.c:
/*
* linux/mykernel/myinterrupt.c
*
* Kernel internal my_timer_handler
*
* Copyright (C) 2013 Mengning
*
*/
#include <linux/types.h>
#include <linux/string.h>
#include <linux/ctype.h>
#include <linux/tty.h>
#include <linux/vmalloc.h>
#include "mypcb.h"
extern tPCB task[MAX_TASK_NUM];
extern tPCB * my_current_task;
extern volatile int my_need_sched;
volatile int time_count = 0;
/*
* Called by timer interrupt.
* it runs in the name of current running process,
* so it use kernel stack of current running process
*/
void my_timer_handler(void)
{
#if 1
if(time_count%1000 == 0 && my_need_sched != 1)
{
printk(KERN_NOTICE ">>>my_timer_handler here<<<\n");
my_need_sched = 1;
}
time_count ++ ;
#endif
return;
}
void my_schedule(void)
{
tPCB * next;
tPCB * prev;
if(my_current_task == NULL
|| my_current_task->next == NULL)
{
return;
}
printk(KERN_NOTICE ">>>my_schedule<<<\n");
/* schedule */
next = my_current_task->next;
prev = my_current_task;
if(next->state == 0)/* -1 unrunnable, 0 runnable, >0 stopped */
{
/* switch to next process */
asm volatile(
"pushl %%ebp\n\t" /* save ebp */
"movl %%esp,%0\n\t" /* save esp */
"movl %2,%%esp\n\t" /* restore esp */
"movl $1f,%1\n\t" /* save eip */
"pushl %3\n\t"
"ret\n\t" /* restore eip */
"1:\t" /* next process start here */
"popl %%ebp\n\t"
: "=m" (prev->thread.sp),"=m" (prev->thread.ip)
: "m" (next->thread.sp),"m" (next->thread.ip)
);
my_current_task = next;
printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid);
}
else
{
next->state = 0;
my_current_task = next;
printk(KERN_NOTICE ">>>switch %d to %d<<<\n",prev->pid,next->pid);
/* switch to new process */
asm volatile(
"pushl %%ebp\n\t" /* save ebp */
"movl %%esp,%0\n\t" /* save esp */
"movl %2,%%esp\n\t" /* restore esp */
"movl %2,%%ebp\n\t" /* restore ebp */
"movl $1f,%1\n\t" /* save eip */
"pushl %3\n\t"
"ret\n\t" /* restore eip */
: "=m" (prev->thread.sp),"=m" (prev->thread.ip)
: "m" (next->thread.sp),"m" (next->thread.ip)
);
}
return;
}
mykernel提供了时钟中断机制,周期性执行my_time_handler中断处理程序,该函数定时观察my_need_sched是否不等于1,如果是则将其置为1,使myprocess执行my_schedule(),这里 my_timer_handler 函数会被内核周期性的调用,每调用1000次,就去将全局变量my_need_sched的值修改为1,通知正在执行的进程执行调度程序my_schedule。在my_schedule函数中,完成进程的切换。进程的切换分两种情况,一种情况是下一个进程没有被调度过,另外一种情况是下一个进程被调度过,可以通过下一个进程的state知道其状态。进程切换依然是通过内联汇编代码实现,无非是保存旧进程的eip和堆栈,将新进程的eip和堆栈的值存入对应的寄存器中。
总结
参考了一些同学的博客,收获很大。本次实验的重点就是理解时间转轮片中断和my_schedule()函数中进程的调度机制,即如何利用时间转轮片的中断机制以及寄存器和堆栈的使用进行保存现场和恢复,最终实现操作系统进程的切换。通过这次实验,对于操作系统的核心功能了解更加深入一点:进程调度和中断机制,通过与硬件的配合实现多任务处理,再加上上层应用软件的支持,最终变成可以使用户可以很容易操作的计算机系统。