深入理解LINUX内核(影印版第3版)》的笔记

 
  • 书名: 深入理解LINUX内核(影印版第3版)
  • 作者: Daniel P.Bovet/Marco Cesati
  • 副标题: Understanding the Linux Kernel
  • 页数: 923
  • 出版社: 东南大学出版社
  • 出版年: 2006-4-1
  • 第1页
    Linux 2.6内核笔记【内存管理】
         
         
    4月14日
    很多硬件的功能,物尽其用却未必好过软实现,Linux出于可移植性及其它原因,常常选择不去过分使用硬件特性。
    比如 Linux只使用四个segment,分别是__USER_CS、__USER_DS、__KERNEL_CS、__KERNEL_DS,因为Paging可以完成segmentation的工作,而且可以完成的更好。而且这样简化了很多,统一了逻辑地址和线性地址。
    而TSS存在每CPU一个的GDT中,虽然每个process的TSS不同,但Linux 2.6却不利用其中的hardware context switch(虽然低版本使用)以一个far jmp来实现任务转换,而用一系列的mov指令来实现。这样做的原因是:
    1、可以检验ds和es的值,以防恶意的forge。
    2、硬转换和软转换所用时间相近,而且硬转换是无法再优化的,软转换则可以。
    4月15日
    Paging也就是将linear地址转成物理地址的机制。
    内存被视为一堆4k的小page frame(就像空的格子),在归OS管的Paging机制的苟延残喘下,仿佛地存放着多于page frame数目的page(数据)。要通过两层索引(directroy和table)来寻到page,再加offset寻到址。这两层索引中的entry包含一些标志表明该page在不在内存里,是否被改写过,最近是否访问过,以及读/写访问权限。
    如果page entry里的Page Size标志和cr4的PSE标志设置了的话(Extended Paging),就是4M一片page frame,这样就只用directory一层索引了。
    从奔腾pro开始,adress针脚非常神奇地从32增加到36,有了一个叫做PAE的机制,它启用(cr4的PAE标志设置)的时候就是2M一片page frame了。这样可以寻址64GB,远远超越了没启用前4GB的理论极限(实际极限1GB)。但这样的寻址非常别扭,因为物理地址虽然因此变成了36位,线性地址仍是32位,要想寻址超过4GB,要用cr3去指向不同的PDPT或在31-30bit指定PDPT中entry。不过,更郁闷的是,这并不能改变process的地址空间4GB的限制,仅仅是内核可以用这么多内存来运行更多的process。
    在64位机器上,由于如果只用两层的话,索引条目会太多,严重消耗内存,所以只好再加层数,alpha、ia64、ppc64、sh64都是3层(虽然每层bit数不一),x86_64非常神奇地用了4层。
    Paging换的是page,Cache换的是line。但是如何在Cache中确定某个内存地址在不在呢?或者说,某内存地址附近的数据,放在Cache中什么位置好呢?不能一对一映射过来(direct mapping),这样会导致巨大的Cache;也不能随意放(fully associative)然后在旁边标记(tag)说是什么地址附近的,这样会导致每次找Cache都是线性查找。一个浪费空间一个浪费时间,因此有一种折衷叫做N-Way Set Associative,有点像Hash。首先把Cache分成很多个N line的集合,然后弄个hash函数把一个地址唯一地映射到某个集合里,之后至于放在这N line中的哪一line就无所谓了。找的时候,先一瞬间找到集合,然后对N line进行线性查找。
    读的时候,自然有cache hit和cache miss。对于写操作,cache hit的话,可能有两种不同的处理方法:write-through(Cache和RAM都写)和wirte-back(line换出时写RAM)。Linux清空PCD (Page Cache Disable)和PWT (Page Write-Through),永远启用cache并使用write-back策略。
    哈哈,TLB(Translation Lookaside Buffers )解决了我心中的一大疑问:每次寻址(将linear翻译成physical),都要非常艰辛地查directroy和table,访问多次RAM(你以为这些东西不是放在RAM里啊?!),岂不累死。幸好,我们有TLB,这样最近翻译的成果就可以缓存在里面,这样就省得每次翻译啦。
    4月17日
    Linux用了四层索引来做Paging。这样既可以通过隐藏掉中间两层来做无PAE的32位paging,又可以隐藏掉pud来支持有PAE的3位paging,还可以支持64位的paging。
    pte_t Page Table
    pmd_t Page Middle Directory
    pud_t Page Upper Directory
    pgd_t Page Global Directory
    每个进程的内存空间中0到PAGE_OFFSET(0xc0000000,即3G)-1是用户空间,PAGE_OFFSET到0xffffffff(4G)则是内核空间(只有内核态才能寻址)。
    启动的时候,Linux问BIOS内存格局如何,保留第1个MB(machine_specific_memory_setup()),然后把自己放在第2个MB开始的地方(从_text到_etext是内核代码,从_etext到_edata是初始化了的内核数据)。
    在这个过程中:
    Linux首先建立初始(provisional)页表(startup_32()),使RAM前8M(两页)可以用两种方式寻址,用来存放最小的自己(text、data、初始页表、128k的堆空间)。
    初始pgd放在swapper_pg_dir中。所有项为0,但0、1与0x300、0x301分别完成线性地址的前8M和3G+8M到物理地址前8M的映射。
    接着,Linux建立最终页表。
    线性地址最高的128M保留给Fix-Mapped Linear Addresses和Noncontiguous Memory Allocation用,所以,最终页表只需要把PAGE_OFFSET后面的896M映射到物理地址的前896M。剩余RAM由Dynamic Remapping来完成。然后用zap_low_mapping()把原先那个初始页表清掉。
    paging_init()会执行:
    pagetable_init() //一个循环,初始化了swapper_pg_dir
    cr3 <- swapper_pg_dir
    cr4 |= PAE
    __flush_tlb_all()
    Linux利用CPU有限的指令和行为模式,实现了一系列操纵tlb的函数,应用于不同的情境。
    值得一记的是Lazy TLB模式,在多CPU系统中,它可以避免无意义的TLB刷新。
    原本发表在我的技术博客:
    http://utensil.javaeye.com/category/69495
    2011-02-05 15:35:06 回应
  • 第2页
    Linux 2.6内核笔记【Process-1】 
         
         
    终于挣脱了《Understanding the Linux Kernel》的Process一章。中文版的翻译低级错误太多,所以只好继续看影印版。
    简介部分,除了通常我们对Process的认识,Linux中值得一提的是:笨重的不分青红皂白把父进程整个地址空间都复制过来的fork()采用了传说中的Copy-on-Write技术;还有就是2.6启用了lightweight process来支持native的thread。从前是模拟pthread实现,现在的native thread有了LinuxThreads, Native POSIX Thread Library(NPTL)和IBM's Next Generation Posix Threading Package(NGPT)这些库支持。而这又引入了thread group的概念,因为属于同一进程的多个线程(lightweight process)虽然是process,却要以某种一致的方式响应getpid()之类的系统调用,因此被放在同一个thread group中。
    也因为这个原因,本文中的process都直接写英文,偶尔出现进程,那是在传统的语境下讨论进程与线程之间的关系。
    Process Descriptor,也就是struct task_struct,又名task_t,是一个长达306行,集合了众多设计智慧的结构。它非常复杂,不仅有很多字段来表征process的属性,还有很多指向其他结构的指针,比如thread_info这个非常重要的结构。
    【process的状态 】
    字段state
    运行着的
    TASK_RUNNING 其实是 可运行的。schedule()会按照时间片轮流让所有状态为TASK_RUNNING的process运行。
    睡眠着、等待着的
    TASK_INTERRUPTIBLE 在等待hardware interrupt, system resource,或是signal。
    TASK_UNINTERRUPTIBLE 同上,但signal叫不醒。
    停下来了的
    TASK_STOPPED 退出了。
    TASK_TRACED 被Debugger停下来。
    字段exit_state或state:
    EXIT_ZOMBIE 非正常死亡。其parent process还没有用wait4()或waitpid()获取他的遗物,所以内核不敢焚烧尸体。
    EXIT_DEAD 遗物获取完毕了,可以焚烧尸体了。如果是非正常死亡,由于init会接过来做养父,所以init会获取他的遗物。
    【process之间的组织 】
    有时候面向对象的思想会阻碍我们对现实世界的表达,尤其是可能阻碍性能上的优化。
    STL这种利用泛型实现的不侵入的,一般化的途径固然好。但 2.6内核中task_t的结构说明,使用侵入式的embeded数据结构,可以更好地在实体间织出多种关系,满足性能和各方面的要求。
    只使用task_t一个结构,利用embeded的双向链表(struct list_head)和单向链表(struct hlist_head),process之间就织出了process list、runqueue、waitqueue、pidhash table、chained list(thread group)等多个关系,并由外在的array统领,实现了高效率的查找与多个字段间的映射。
    此笔记不具体复述书中的讨论,只勾勒基本图景。
    process list包含了所有的task_t, 用的是双向链表,内嵌字段名是tasks。
    runqueue包含了所有state为TASK_RUNNING的task_t,由140个(一个优先级一个)双向链表组成,内嵌字段名是run_list。这140个双向链表的头放在struct prio_array_t里的一个array中。
    我们知道,PID可以唯一identify一个process。其实PID有4种,一种是process自身create时候内核 sequentially分配的ID(pid),一种是thread group中leader的PID(tgid),这个ID其实是进程的主线程的ID,一种是process group中eader的PID(pgrp)[补充介绍:process group的一个常见例子就是:在Bash中执行ls|grep sth|more这样的命令,这里3个process就应该被组织在一个process group中],还有一种是一个session中leader的PID。
    因此pidhash table是一个有4项的array,每个array分别是一个对该类PID的hash。这个hash对collision的解决办法是chaining。以tgid为例,collide的tgid的进程被一个单向链表chain着,而同一tgid的进程则只有leader挂在chian上,其他则以双向链表的形式挂在leader上。
    注意,根据我在LXR中的查证,2.6.11中的对pidhash table、chained list很重要的struct pid,在最新的2.6.29中已经被包裹在struct pid_link中,而且内部的字段也脱胎换骨,其中用于表达thread group的内嵌双向链表字段被拆出来直接放在task_t里。这样对thread group的表达就更为清晰直接。因此书中的讨论已不完全适用。
    waitqueues,则是所有TASK_INTERRUPTIBLE和TASK_UNINTERRUPTIBLE状态的process。它们按所等待的事件分别排在不同的队(双向链表)中。
    这里涉及的结构是wait_queue_t。它除了process的指针,还包含了flag和类型为wait_queue_func_t的唤醒处理函数。
    flag为0说明等待的事件是nonexclusive的,所以事件发生时,唤醒所有等它的process,为1说明等待的事件是exclusive的,比如只有一个的资源,就只唤醒一个。
    在队列中nonexclusive的process永远从前面加进去(不必分先来后到,大家一起醒),exclusive的process永远从后面加进去(要分先来后到)。这是由add_wait_queue()和add_wait_queue_exclusive()完成的。这样排队,使得wake_up宏中的循环可以在成功唤醒第一个exclusive的process就终止。
    睡眠和唤醒process的函数或宏有:sleep_on族、2.6引入的wait族函数、wait_event族宏、wake_up族宏。这里只讲一下sleep_on()。
    sleep_on()的本质就是把进程从runqueue拿出来放进wait_queue,然后重新调用schedule(),面对新的runqueue,按照算法,继续调度。schedule()返回之后(说明又让自己执行了),就把自己再从从wait_queue拿出来放进runqueue,然后接着执行自己接下来的代码。
    【内核是如何获取当前process的】
    用current这个宏可以获得当前process的task_t结构的指针。
    低版本Linux的current是一个邪恶的全局变量。高版本则利用了内存布局,智能地推断出当前process。
    Linux用一个union把当前process的thread_info和(倒着增长的)kernel栈放在一个两page长(8kb)的内存区域。
    C代码
    union thread_union {
    struct thread_info thread_info;
    unsigned long stack[2048]; /* 1024 for 4KB stacks */
    };
    union thread_union {
    struct thread_info thread_info;
    unsigned long stack[2048]; /* 1024 for 4KB stacks */
    };
    利用这样的内存布局,三行汇编就可以获得当前process:
    Gnu as代码
    movl $0xffffe000,%ecx /* or 0xfffff000 for 4KB stacks */
    andl %esp,%ecx
    movl (%ecx),p
    movl $0xffffe000,%ecx /* or 0xfffff000 for 4KB stacks */
    andl %esp,%ecx
    movl (%ecx),p
    第一二行mask掉esp的一部分,到达了thread_info所对齐的地方。
    然后利用指向相应task_t的task字段在thread_info的offset 0的位置的事实,直接**ecx赋值给p,这时p就是当前process的task_t结构的指针。
    原本发表在我的技术博客:
    http://utensil.javaeye.com/category/69495
    2011-02-05 15:35:58 回应
  • 第3页
    Linux 2.6内核笔记【Process-2:切换】
         
         
    在看Linux内核的时候发现,CPU自己认得(或者说is expecting)很多struct,很多时候内核要做的事情是在内存里准备好这些struct里CPU需要的数据,以供CPU完成相应的任务。比如寻址中的paging部分,内核只需要把page directory中的数据准备好,并把page directory的地址放入cr3,CPU自己就能根据page directory中的数据进行寻址。就像一种契约,CPU对struct的期望,正是内核所要做的事情,反过来说,内核要做的事情仅仅是满足CPU的期望而已。
    不知读者是否与我有同感,但对于我而言,这使得写操作系统突然变得远远不如想象中那么困难了。因为困难的地方在底层,在硬件。这正是学编程的世界,没学之前,你永远觉得编程是不可能的事情——如果刚刚学会了C的语法,你会觉得,C里头把数据在内存里移来移去,加加减减,明明是只能让小孩子玩过家家的东西,怎么就可以在屏幕上画画?让机器做事?后来意识到了好多好多的库,原来自己只需要调用API就好了,那 API的那一边又是怎么实现的呢?终于知道API里面是怎么实现的了,却发现这些实现永远也只是在调用另外一层API,只不过更为底层的API。往地里越钻越深,穿越一层又一层的API,才发现最终不过是在为硬件的期望准备内存中的数据。当然这样的描述忽略了同时在底层我们也发出了汇编指令让机器去做一些除了操作内存加加减减的事情,但硬件才是生命自身,它的电路决定了它如何理会指令、中断和各种事件,如何突然不执行我们(比如,当前用户进程)给它的下一个指令,突然知道利用内存中的数据去进行上下文转换,如此等等。
    其实上面这番话也可以反过来说。每当我们的知识前进一步,学的更深了,回头望去,我们承学的东西,不过是一层API,一层界面罢了。
    一点感想,下面进入正题,这次的笔记是讲述Process的切换:
    【TSS】
    先介绍一下对80x86的hardware context switch很重要的TSS结构。
    Task State Segment
    A task gate descriptor provides an indirect, protected reference to a Task State Segment.
    The Task State Segment is a special x86 structure which holds information about a task. It is used by the operating system kernel for task management. Specifically, the following information is stored in the TSS:
    * Processor register state
    * I/O Port permissions
    * Inner level stack pointers
    * Previous TSS link
    All this information should be stored at specific locations within the TSS as specified in the IA-32 manuals.
    在Linux低版本中,进程切换仅仅需要far jmp到要切换的进程的TSS的selector所在就可以了。(far jmp除了修改eip还修改cs)。
    在Linux 2.6当中,TSS保存在每CPU一个的GDT(其地址存在gdtr中)中,虽然每个process的TSS不同,但Linux 2.6却不利用其中的 hardware context switch以一个far jmp来实现任务转换,而用一系列的mov指令来实现。这样做的原因是:
    1、可以检验ds和es的值,以防恶意的forge。
    2、硬转换和软转换所用时间相近,而且硬转换是无法再优化的,软转换则可以。
    Linux 2.6对TSS的使用仅限于:
    1、User Mode向Kernel Mode切换的时候,从TSS中获取Kernel Stack。
    2、User Mode使用in或者out指令的时候,用TSS中的 I/O port permission bitmap验证权限.
    有一点要注意,process switching是发生在Kernel Mode,在转为Kernel Mode的时候,用户进程使用的通用register已经保存在Kernel Stack上了。然而非通用的register,如esp,由于不能放在TSS中,所以是放在task_t中的一个类型为thread_struct的 thread字段中。
    process切换两部分:切换paging这里不讲,切换kernel stack、hardware context是由switch_to宏完成的。
    【switch_to宏中的last】
    switch_to宏的任务就是让一个process停下来,然后让另外一个process运行起来。
    switch_to(prev, next, last)。prev、next分别是切换前后的process的process descriptor(task_t)的地址。last的存在要解释一下:
    由于switch_to中造成了进程的切换,所以其中前半部分指令在prev的语境(context、Kernel Stack)中执行,后半部分却在next的语境中执行。
    假设B曾切换为O,那么由于一切换,B就停下来了,所以在B的感觉保持是next为O,prev为B。当我们要从A切换到B的时候,一切换B就醒了,但它却仍然以为next是O,prev是B,就不认识A了。然而A switch_to B中的后半部分却需要B知道A。
    因此这个宏通常都是这么用的:switch_to(X, Y, X)。
    【switch_to详解】
    书上认为直接看pseudo的汇编代码比较好,我却觉得直接看Linux源代码中的inline汇编代码更为自在(为了阅读方便和语法高亮有效,却掉了原代码中宏定义的换行,想查看原来的代码,请访问http://lxr.linux.no/linux+v2.6.11/include/asm-i386/system.h#L15 ):
    C代码
    #define switch_to(prev,next,last)
    do {
    unsigned long esi,edi;
    asm volatile("pushfl\n\t"
    "pushl %%ebp\n\t"
    "movl %%esp,%0\n\t" /* save ESP */
    "movl %5,%%esp\n\t" /* restore ESP */
    "movl $1f,%1\n\t" /* save EIP */
    "pushl %6\n\t" /* restore EIP */
    "jmp __switch_to\n"
    "1:\t"
    "popl %%ebp\n\t"
    "popfl"
    :"=m" (prev->thread.esp),"=m" (prev->thread.eip),
    "=a" (last),"=S" (esi),"=D" (edi)
    :"m" (next->thread.esp),"m" (next->thread.eip),
    "2" (prev), "d" (next));
    } while (0)
    #define switch_to(prev,next,last)
    do {
    unsigned long esi,edi;
    asm volatile("pushfl\n\t"
    "pushl %%ebp\n\t"
    "movl %%esp,%0\n\t" /* save ESP */
    "movl %5,%%esp\n\t" /* restore ESP */
    "movl $1f,%1\n\t" /* save EIP */
    "pushl %6\n\t" /* restore EIP */
    "jmp __switch_to\n"
    "1:\t"
    "popl %%ebp\n\t"
    "popfl"
    :"=m" (prev->thread.esp),"=m" (prev->thread.eip),
    "=a" (last),"=S" (esi),"=D" (edi)
    :"m" (next->thread.esp),"m" (next->thread.eip),
    "2" (prev), "d" (next));
    } while (0)
    简单解说一下这里用到的gcc的inline汇编语法。首先看上去像是汇编代码的自然就是汇编代码了,每个指令写到一对""中(这是换行接着写同一个 string的好办法)还要加\n\t实在是比较麻烦但还算清晰可读。如果熟悉AT&T的汇编语法,读起来不是难事。
    第一个冒号后面有很多类似于"=m" (prev->thread.esp)的东东以逗号相隔,这些是这段汇编所输出的操作数,=表达了这个意思。其中m代表内存中的变量,a代表%eax,S代表%esi,D代表%edi。但"=m" (prev->thread.esp)和"=a"(last)是完全不同的输出方向,前者在movl %%esp,%0一句中(%0代表了prev->thread.esp)把%esp的内容输出给了prev->thread.esp,后者则独立成句,直接在整段汇编的最后自动将last的值写到%eax,完成了last的使命。
    第二个冒号后面的则是输入给这段汇编的操作数。其中d代表%edx。2代表了prev的值将与%2(也就是"=a"(last))共用一个寄存器。
    这些操作数在汇编中以%n(n是数字)的形式引用,输出和输入站在一个队里报数:输出的第一个是%0,顺次递增,到了"m" (next->thread.esp)就排到了%5,依此类推。
    本来还应该有一个冒号,用来告诉编译器会被破坏的寄存器(因为笨笨的C编译器认为只有他自己在改寄存器,常常自作主张作出假设进行优化)。这里中途在jmp __switch_to我们的确破坏过%eax,但我们巧妙地改回来了(看下面),我们也破坏了%ebp和eflags,但我们通过一对push和pop 却也恢复了它们。因此我们不需要告诉编译器我们改过,因为我们改回来了。
    asm后面的volatile是告诉C编译器不要随便以优化为理由改变其中代码的执行顺序。
    还有一个地方需要解释,那就是$1f,这个指的是标号为1的代码的起始地址。在"1:\t"这一行我们定义了这个标号。
    如果对gcc的inline汇编产生了兴趣,参见:http://www.ibiblio.org/gferg/ldp/GCC-Inline-Assembly-HOWTO.html#s5
    下面开始详细分析:
    C代码
    /* 首先,我们在prev的语境中执行 */
    /* 保存ebp和eflags于prev的Kernel Stack上 */
    pushfl
    pushl %ebp
    %esp => prev->thread.esp /*保存了prev的esp */
    next->thread.esp => %esp /*读出next之前保存的esp。这个时候,由于esp被改成了next的Kernel Stack,而标示process的thread_info挨着esp(参见笔记process-1中的对current的解释),我们现在实际变成了是在进程next的语境中执行了。不过我们还没有真正开始执行next自己的代码,且看下面 */
    1 => prev->thread.eip /*把标号为1的代码的地址存入prev->thread.eip中,以备将来恢复。如果有人不知道,说明一下:CPU的eip寄存器中放的是CPU要执行的下一行代码的地址 */
    /* 正是下面这两句的巧妙配合使得这两句执行完后,CPU完完全全跑去执行next代码,不再执行后面的代码。这也正是原书没有讲清楚的(过于分散了),各位读者注意咯!*/
    pushl next->thread.eip /* 把原先保存下来的next的下一条指令地址,push到next的Kernel stack顶部。这个next->thread.eip通常储存的是next被切换之前push进stack的那个标号为1的代码地址(简称:next的1),但如果next从未被切换过,即是一个刚被fork了、新开始执行的进程,那么存在next->thread.eip中的就是 ret_from_fork()函数的起始地址。 */
    jmp __switch_to /* __switch_to是一个用寄存器来传达参数的函数,里面执行了检查、保存FPU、保存debug寄存器等琐事。重点是:__switch_to是一个函数!这里居然用的是jmp而不是call!这正是巧妙之处。__switch_to()作为一个函数执行完了之后会返回(ret),但由于我们不是call它的(call 会自动把下一条指令的地址push入stack顶部,相应地返回的时候ret会从stack的顶部获取返回地址——下一条指令的地址,这是一种完美的配合),ret就把上一句push入stack顶部的next->thread.eip当作下一条指令了,于是我们就自然而然地顺着next之前执行的地址执行下去了,直到下一次process切换回来。 */
    /* .......下面的代码不会继续执行......直到进程切换回来然后跳到prev的1 */
    1:
    popl %ebp
    popfl
    /* 到这里这个宏就结束了,所以就会顺着执行prev的接下来的代码。这也正是为什么我们之前把prev的1的地址push进stack就可以达到回到prev自己的代码的原因。 */
    /* 首先,我们在prev的语境中执行 */
    /* 保存ebp和eflags于prev的Kernel Stack上 */
    pushfl
    pushl %ebp
    %esp => prev->thread.esp /*保存了prev的esp */
    next->thread.esp => %esp /*读出next之前保存的esp。这个时候,由于esp被改成了next的Kernel Stack,而标示process的thread_info挨着esp(参见笔记process-1中的对current的解释),我们现在实际变成了是在进程next的语境中执行了。不过我们还没有真正开始执行next自己的代码,且看下面 */
    1 => prev->thread.eip /*把标号为1的代码的地址存入prev->thread.eip中,以备将来恢复。如果有人不知道,说明一下:CPU的eip寄存器中放的是CPU要执行的下一行代码的地址 */
    /* 正是下面这两句的巧妙配合使得这两句执行完后,CPU完完全全跑去执行next代码,不再执行后面的代码。这也正是原书没有讲清楚的(过于分散了),各位读者注意咯!*/
    pushl next->thread.eip /* 把原先保存下来的next的下一条指令地址,push到next的Kernel stack顶部。这个next->thread.eip通常储存的是next被切换之前push进stack的那个标号为1的代码地址(简称:next的1),但如果next从未被切换过,即是一个刚被fork了、新开始执行的进程,那么存在next->thread.eip中的就是 ret_from_fork()函数的起始地址。 */
    jmp __switch_to /* __switch_to是一个用寄存器来传达参数的函数,里面执行了检查、保存FPU、保存debug寄存器等琐事。重点是:__switch_to是一个函数!这里居然用的是jmp而不是call!这正是巧妙之处。__switch_to()作为一个函数执行完了之后会返回(ret),但由于我们不是call它的(call 会自动把下一条指令的地址push入stack顶部,相应地返回的时候ret会从stack的顶部获取返回地址——下一条指令的地址,这是一种完美的配合),ret就把上一句push入stack顶部的next->thread.eip当作下一条指令了,于是我们就自然而然地顺着next之前执行的地址执行下去了,直到下一次process切换回来。 */
    /* .......下面的代码不会继续执行......直到进程切换回来然后跳到prev的1 */
    1:
    popl %ebp
    popfl
    /* 到这里这个宏就结束了,所以就会顺着执行prev的接下来的代码。这也正是为什么我们之前把prev的1的地址push进stack就可以达到回到prev自己的代码的原因。 */
    这篇笔记不会解释__switch内部琐屑的细节了,因为最神奇的事情不是发生在里面,人生苦短,不用去琢磨过于琐屑的事情。
    原本发表在我的技术博客:
    http://utensil.javaeye.com/category/69495
    2011-02-05 15:37:02 回应
  • 第4页
    Linux 2.6内核笔记【Process-3:fork、内核进程】
         
         
    Utensil按:
    最后的几篇Linux内核笔记实在是太难产了,这中途读完了APUE,并以JavaEye闲聊的形式做了无数细小的笔记(不日将整理为博客);也第3次(还是第4次?)阅读了《ACE程序员指南》,不过这一次终于做下了笔记;也看完了Programming Erlang,用Erlang来写基于UDP的TCP的ErlyUbt已经渐渐现出眉目,也已push到了GitHub上面。可惜就是这段时间的该做的正事却没什么进展...
    《Understanding Linux Kernel》在18号必须还给图书馆了...在这两天电脑坏了的日子里,第3次读了即将做笔记的中断与异常、内核同步、时间测量,其余的章节也略读完毕,这些章节希望能够写成一些细小的闲聊。预期电脑应该在今晚恢复正常,在这之前,我来到图书馆,开始写作这酝酿已久的笔记。 第一篇,是对Process的一个收尾。
    【Process的终止 】
    这不是本笔记关注的重点,只记下以下一点:
    C库函数exit()调用exit_group()系统调用(做事的是do_group_exit()),这会终止整个线程组,而exit_group()会调用exit()系统调用(做事的是do_exit())来终止一个指定的线程。
    Process的诞生
    POSIX里,创建process需要fork(),古老的fork()是很汗的,它会完整复制父进程的所有资源。Linux则将fork细分为下面三种情况:
    如果是fork一个正常进程,那么就用Copy-on-Write(CoW)技术,子进程先用着父进程的所有页,它企图修改某一页时,再复制那一页给它去改;
    如果要的是线程(轻量级进程),那么就是大家共同享有原先那些资源,大家一条船;
    还有就是vfork()所代表的情况:子进程创建出来后,父进程阻塞,这样老虎不在家,猴子当大王,子进程继续用原先的地址空间,直到它终止,或者执行新的程序,父进程就结束阻塞。
    一个关于系统调用的准备知识:系统调用xyz()的函数名往往为sys_xyz(),下文对系统调用仅以sys_xyz()的形态表达。
    【clone()界面】
    在Linux里,创建进程的总的界面是clone(),这个函数并没有定义在Linux内核源代码中,而是libc的一部分,它负责建立新进程的stack并调用sys_clone()。而sys_clone()里面实际干活的是do_fork(),而do_fork()做了许多前前后后的琐事,真正复制进程描述符和相关数据结构的是copy_process()。
    clone()是这个样子的:clone(fn, arg, flags, child_stack, 其它我们不关心的参数)。
    fn是新进程应执行的函数, arg是这个函数的参数。
    flags的低字节指定新进程结束时发送给老进程的信号,通常为SIGCHLD,高字节则为clone_flag,clone_flag很重要,它决定了clone的行为。有趣的一些clone_flag包括(这些flag定义于<linux/ include/ linux/ sched.h >):
    CLONE_VM(Virtual Memory):新老进程共享memory descriptor和所有Page Table;
    CLONE_FS(File System);
    CLONE_FILES;
    CLONE_SIGHAND(Signal Handling):新老进程共享信号描述符(signal handler和现已blocked/pending的信号队列);
    CLONE_PTRACE:用于Debugging;
    CLONE_PARENT:老进程的real_parent登记为新进程的parent和real_parent;
    CLONE_THREAD:新进程加入老进程的线程组;
    CLONE_STOPPED:创建你,但你别运行。
    child_stack则是新进程用户态stack的地址,要么共享老进程的,要么老进程应为新进程分配新的stack。
    【do_fork()探究 】
    书中说:fork()和vfork()只不过是建立在调用clone()基础上的wrapper函数(也在libc中),实际上:
    C代码
    asmlinkage int sys_fork(struct pt_regs regs)
    {
    return do_fork(SIGCHLD, regs.esp, &regs, 0, NULL, NULL);
    }
    asmlinkage int sys_clone(struct pt_regs regs)
    {
    /* 略去用于把regs拆开成可以传递给do_fork的参数的代码 */
    return do_fork(clone_flags, newsp, &regs, 0, parent_tidptr, child_tidptr);
    }
    asmlinkage int sys_vfork(struct pt_regs regs)
    {
    return do_fork(CLONE_VFORK | CLONE_VM | SIGCHLD, regs.esp, &regs, 0, NULL, NULL);
    }
    asmlinkage int sys_fork(struct pt_regs regs)
    { return do_fork(SIGCHLD, regs.esp, &regs, 0, NULL, NULL);
    }
    asmlinkage int sys_clone(struct pt_regs regs)
    { /* 略去用于把regs拆开成可以传递给do_fork的参数的代码 */
    return do_fork(clone_flags, newsp, &regs, 0, parent_tidptr, child_tidptr);
    }
    asmlinkage int sys_vfork(struct pt_regs regs)
    { return do_fork(CLONE_VFORK | CLONE_VM | SIGCHLD, regs.esp, &regs, 0, NULL, NULL);
    }
    我一开始猜想,fork()和vfork()直接呼唤sys_fork()和sys_vfork()应该也没什么问题,但是,注意到这三个系统调用都只接受pt_regs这样仅包含寄存器的参数,显然clone()的工作中主要的部分是把它自身接受的参数转换成寄存器的值,事实上,clone还需要将fn和args压入stack,因为do_fork()是这样子的:
    do_fork(clone_flags, stack_start, regs, 一些我们不关心的参数)
    也就是说do_fork不了解也不需要知道fn和args,它做完fork之后,在某个return处,类似于之前在process切换用过的技巧(jmp+ret)将使CPU从stack中获取返回地址,并错误而正确地拿到了fn的地址。这正是clone()这个wrapper要做的事情,fork()和vfork()不妨复用clone()的辛苦。
    do_fork()调用完copy_process之后,除非你指定CLONE_STOPPED,就会呼唤wake_up_new_task(),这里面有一点很有趣:
    如果新老进程在同一CPU上运行,而且没有指定CLONE_VM(也就是终究要分家,要动用CoW),那么就会让新进程先于老进程运行,这样,如果新进程一上来就exec,就省去了CoW的功夫。
    这是因为exec内部会调用flush_old_exec(),从与老进程的共享中中脱离,从此拥有自己的信号描述符、文件,释放了原先的mmap,消灭了对老进程的所有知识——这正是为什么成功执行的exec不会返回也无法返回。总之,此后再也没有共享,自然也不会需要CoW。(参见《Program Execution》一章《exec function》中的介绍。)
    【内核进程(Kernel thread) 】
    什么是书中所说的“内核线程”?首先要说明,由于Linux内核中对process和thread的混用,这里的thread其实完全可以理解为process,等价于普通的进程,不能理解为老进程中的一个属于内核的线程。因此,下文都称之为内核进程。
    内核进程是会和其他进城一样被调度的实体,它和进程的唯一区别就是,它永远运行于内核态,也只访问属于内核的那一部分线性地址(大于PAGE_OFFSET的)。
    这就使得创建它的时候非常省事,直接和创建它的普通进程共享小于PAGE_OFFSE的线性地址,反正它也不用:
    C代码
    int kernel_thread(int (*fn)(void *), void * arg, unsigned long flags)
    {
    /* 略去用于设置regs的代码 */
    return do_fork(flags | CLONE_VM | CLONE_UNTRACED, 0, &regs, 0, NULL, NULL);
    }
    int kernel_thread(int (*fn)(void *), void * arg, unsigned long flags)
    { /* 略去用于设置regs的代码 */
    return do_fork(flags | CLONE_VM | CLONE_UNTRACED, 0, &regs, 0, NULL, NULL);
    } <linux/ include/ linux/ sched.h >中甚至定义了
    #define CLONE_KERNEL (CLONE_FS | CLONE_FILES | CLONE_SIGHAND )
    可供kernel_thread()调用的时候使用,这样节省的克隆就更多了。
    内核进程由于不受不必要的用户态上下文拖累,可以用于执行一些重要的内核任务,比如,刷新磁盘高速缓存,交换出不用的pageframe,服务网络连接等等,这些任务以前是周期性执行的进程,是线性的执行方式,现在的内核把用户态从他们身上剥离,并且和其它进程放到一起来调度,能获得更好的响应表现。
    所有进程的祖先是进程0,称为idle进程或swapper进程,它是内核初始化时创建的一个内核进程,它初始化一堆数据结构之后会创建init进程,执行init()函数,其中调用exec执行了init程序,至此,init进程变成了一个普通进程。而idle进程之后则一直执行cpu_idle()函数没事干。调度程序只有在没有进程处于可运行状态(TASK_RUNNING)才会选择它。
    如果有多个CPU,BIOS一开始会禁用其它CPU,只留一个,进程0就在其上诞生,它会激活其它CPU,并通过copy_process让每个CPU都有一个pid为0的进程,从而形成了每个CPU都有一个0进程的局面。
    原本发表在我的技术博客:
       http://utensil.javaeye.com/category/69495
    2011-02-05 15:39:29 回应
  • 第5页
    Linux 2.6内核笔记【中断、异常、抢占内核】
         
         
    2009.6.18更新:参考http://linux.derkeiler.com/Mailing-Lists/Kernel/2004-03/4562.html ,查证LXR,重新诠释PREEMPT_ACTIVE标志。
    【中断信号分类 】
    中断信号是一个统称,统称那些改变CPU指令执行序列的事件。但它又分为两种:
    一种是同步的,没那么突然,因为它只在一个指令的执行终止之后才发生,书中依从Intel的惯例,称为异常(Exception)。一般是编程错误(一般的处理是发信号)或者内核必须处理的异常情况(内核会采取恢复异常所需的一些步骤);
    一种是异步的,突然一些,因为它是由间隔定时器和I/O设备产生的,只遵循CPU时钟信号,所以可能在任何时候产生,书中也依从Intel的惯例,称为中断(Interrupt)。
    【内核控制路径】
    内核在允许中断信号到来之前,必须先准备好对它们的处理,也就是适当地初始化中断描述符表(Interrupt Descriptor Table, IDT)。
    中断信号一来,CPU控制单元就自动把当前的程序计数器(eip、cs)和eflags保存到内核stack,然后把事先与发生的中断信号类型关联好的处理程序的地址(保存在IDT中)放进程序计数器。这时,内核控制路径(kernel control path)横空出世。
    什么是内核控制路径?它是不是一个进程?不是。内核进程?也不是。它虽然也需要切换上下文,需要保存那些它可能使用的寄存器的并在返回时恢复,但这是一个非常轻的上下文切换。它诞生的时候并没有发生进程切换,处理中断的主语仍然是中断发生时正在执行的那个进程。那个进程就像突然被内核抓进了一间小屋做事,或者突然潜入了水(内核)里不见踪影,但它仍然在使用分配给它的那段时间片。
    有趣的是,如果一个进程还在处理一个异常的时候,分配给它的时间片到期了,会发生什么事情呢?这取决于有没有启用内核抢占(Kernel Preemption),如果没有启用,进程就继续处理异常,如果启用了,进程可能会立即被抢占,异常的处理也就暂停了,直到schedule()再度选择原先那个进程(注意:内核处理中断的时候,必然会禁用内核抢占,所以这里才说是异常)。
    【中断信号处理的约束】
    中断信号处理需要满足下面三个严格的约束:
    1)中断处理要尽可能块地完成、返回。因此只执行关键而紧急的部分,尽可能把更多的后续处理过程仅仅标志一下,放到之后再去执行。
    2)一个中断还在处理的时候,另外一个中断可能又来了,这个时候最好能先放下手中的处理,先去处理新的中断,然后在回头来接着处理这个中断,这称之为中断和异常处理程序的嵌套执行(nested execution),或者说是内核控制路径的嵌套执行。要实现这一点,有一点必须满足,那就是中断处理程序运行期间不能阻塞,不能发生进程切换。
    如果对异常的种类做一番思考,就会发现,异常最多嵌套两层,一个由系统调用产生,一个由系统调用执行过程中的缺页产生(这时必然挂起当前进程,发生进程切换)。与之相反,在复杂的情况下,中断产生的嵌套则可能任意多。
    3)内核中存在一些临界区,在这些临界区,中断必须被禁止。中断处理程序要尽可能地减少进入临界区的次数和时间,为了内核的响应性能,中断应该在大部分时间都是启用的。
    【异常的种类】
    异常有很多种,其中比较有趣的有:
    编号
    异常
    异常处理程序
    信号
    有趣之处
    1
    Debug
    debug( )
    SIGTRAP
    用于调试
    3
    Breakpoint
    int3( )
    SIGTRAP
    7
    Device not available
    device_not_available( )
    None
    用于在需要的时候才加载FPU 、MMX 、XMM
    ( 当cr0 的TS 标志被设置)
    14
    Page Fault
    page_fault( )
    SIGSEGV
    如果是正常缺页,内核会挂起当前进程,然后将该页读入RAM ;如果是页错误,就发出信号。
    4
    Overflow
    overflow( )
    SIGSEGV
    调试时非常常见的一个信号SIGSEQV ,Segment Violation ,呵呵,关注一下都是什么异常导致的。
    5
    Bounds check
    bounds( )
    SIGSEGV
    10
    Invalid TSS
    invalid_TSS( )
    SIGSEGV
    13
    General protection
    general_protection( )
    SIGSEGV
    【中断描述符】
    Intel 80x86 CPU认得三种中断描述符,Linux为了检验权限,将其细分为:
    Interrupt Gate, DPL = 0的中断门,set_intr_gate(n,addr),所有中断
    System Interrupt Gate,DPL = 3的中断门,set_system_intr_gate(n,addr),int3异常
    System Gate,DPL = 3的陷阱门,set_system_gate(n,addr),into、bound、int $0x80异常
    Trap Gate, DPL = 0的陷阱门,set_trap_gate(n,addr),大部分异常
    Task Gate, DPL = 0的任务门,set_task_gate(n,gdt),double fault异常
    【异常处理的标准结构】
    用汇编把大多数寄存器的值保存到kernel stack;
    用C函数处理异常
    通过ret_from_exception( ) 函数退出处理程序.
    I/O中断处理的标准结构
    将IRQ值和寄存器值保存到kernel stack;
    给服务这条IRQ线的PIC发送应答,从而允许它继续发出中断;
    执行和所有共享此IRQ的设备相关联的ISR;
    通过跳转到ret_from_intr( ) 的地址结束中断处理。
    【IRQ(Interrupt ReQuest)线(IRQ向量)的分配】
    IRQ共享:几个设备共享一个IRQ,中断来时,每个设备的中断服务例程(Interrupt Service Routine,ISR)都执行,检查一下是否与己有关;
    IRQ动态分配:IRQ可以在使用一个设备的时候才与一个设备关联,这样同一个IRQ就可以被不同的设备在不同时间使用。
    中断向量中,0-19用于异常和非屏蔽中断,20-31被Intel保留了,32-238这个范围内都可以分配给物理IRQ,但128(0x80)被分配给用于系统调用的可编程异常。
    延后的工作谁来做?
    首先是两种非紧迫的、可中断的内核函数——可延迟函数(deferrable functions ),然后是通过工作队列(work queues )来执行的函数。
    软中断(softirq)是可重入函数而且必须明确地使用自旋锁保护其数据结构;tasklet在软中断基础上实现,但由于内核保证不会在两个CPU上同时运行相同类型的tasklet,所以它不必是可重入的。
    【六种软中断】
    Softirq
    Index (priority)
    Description
    HI_SOFTIRQ
    0
    Handles high priority tasklets
    TIMER_SOFTIRQ
    1
    Tasklets related to timer interrupts
    NET_TX_SOFTIRQ
    2
    Transmits packets to network cards
    NET_RX_SOFTIRQ
    3
    Receives packets from network cards
    SCSI_SOFTIRQ
    4
    Post-interrupt processing of SCSI commands
    TASKLET_SOFTIRQ
    5
    Handles regular tasklets
    内核会在一些检查点(适宜的时候,其中有时钟中断)检查挂起的软中断,用__do_softirq()执行它们。__do_softirq()会循环若干次,以保证处理掉一些在处理过程中新出现的软中断,但如果还有更多新挂起的软中断,__do_softirq()就不管了,而是调用wakeup_softirq()唤醒每CPU内核进程ksoftirqd/n(这样就可以被调度,而不会一直占着CPU),来处理剩下的软中断。
    这种做法是为了解决一个矛盾:与网络相关的软中断是高流量的,也是对实时性有一定要求的。但是如果do_softirq()为了实时性一直处理它们,就会一直不返回,结果用户程序就僵在那里了;如果do_softirq()处理完一些软中断就返回,不论这中间机器有无空闲,直到下一个时钟中断才又处理其余的,网络处理需要的许多实时性就得不到保证。现在的做法,唤醒内核进程,让它在后台调度,由于内核进程优先级很低,用户程序就有机会运行,不会僵死;但如果机器空闲下来,挂起的软中断很快就能被执行。
    tasklet则多用于在I/O驱动程序的开发中实现可延迟函数。
    但是,可延迟函数有一个限制,它是运行在中断上下文的,它执行时不可能有任何正在运行的进程,它也不能调用任何可阻塞(从而会休眠)的函数。这就是工作队列的意义所在。工作队列把需要执行的内核函数交给一些内核进程来执行。
    处于效率的考虑,内核预定义了叫做events的工作队列,内核开发者可以用schedule_work族函数随意呼唤它们。
    【内核抢占(Kernel Preemption)】
    本章在很多地方都涉及到了内核抢占,我觉得还是将内核抢占在本章的笔记记完,不必像原书那样等到内核同步一章了。
    在非抢占内核的情形,一个执行在内核态的进程是不可能被另外的进程取代的(进程切换);而在抢占内核的情形,是有可能的:但只有当内核正在执行异常处理程序(尤其是系统调用),而且内核抢占没有被显式禁用的时候,才可能抢占内核。
    一个例子:当A在处理异常的时候,一个中断的处理程序唤醒了优先级更高的B,在抢占内核的情形,就会发生强制性进程切换。这样做的目的是减少dispatch latency,即从进程(结束阻塞)变为可执行状态到它实际开始运行的时间间隔,降低了它被另外一个运行在内核态的进程延迟的风险。
    进程描述符中的thread_info字段中有一个32位的preempt_counter字段,0-7位为抢占计数器,用于记录显式禁用内核抢占的次数;8-15位为软中断计数器,记录可延迟函数被禁用的次数;16-27为硬中断计数器,表示中断处理程序的嵌套数(irq_enter()递增它,irq_exit()递减它);28位为PREEMPT_ACTIVE标志。只要内核检测到preempt_counter整体不为0,就不会进行内核抢占,这个简单的探测一下子保证了对众多不能抢占的情况的检测。
    说明:
    1)为了避免在可延迟函数访问的数据结构上发生的竞争条件,最简单直接的方法是禁用中断,但禁用中断有时太夸张了,所以有了禁用可延迟函数这回事。
    2) PREEMPT_ACTIVE标志的本意是说明正在抢占,设置了之后preempt_counter就不再为0,从而执行抢占相关工作的代码不会被抢占。
    它可被非常tricky地这样使用:
    preempt_schedule()是内核抢占时进程调度的入口,其中调用了schedule()。它在调用schedule()前设置PREEMPT_ACTIVE标志,调用后清除这个标志。而schedule()会检查这个标志,对于不是TASK_RUNNING(state != 0)的进程,如果设置了PREEMPT_ACTIVE标志,就不会调用deactivate_task(),而deactivate_task()的工作是把进程从runqueue移除。
    你可能会疑惑,为什么要预防已经不在RUNNING状态的进程从runqueue中移除?设想一下,一个进程刚把自己标志为TASK_INTERRUPTIBL,就被preempt了,它还没来得及把自己放进wait_queue中...这个时候当然要让它回头接着运行,直到把自己放进wait_queue然后自愿进程切换,那时才可以把它从runqueue中移除。
    在面对内核的时候,思维不能僵化在操作系统提供给用户的进程切换的抽象中,而要想象一个永不停歇运行着的、虽然有意识地跳来跳去的指令流的。所以,没有标志为RUNNING不意味就不会还剩下一些(比如处理状态转换的)代码需要执行哦。
    通过这个标志,保证了被抢占的进程将可以被正确地重新调度和运行。
    在中断、异常、系统调用返回过程中也会设置PREEMPT_ACTIVE标志。
    原本发表在我的技术博客:
       http://utensil.javaeye.com/category/69495
    2011-02-05 15:40:19 回应
  • 第6页
    Linux 2.6内核笔记【内核同步】
         
         
    Utensil按:这应该是最实用,最接近日常编程的一章了。
    同步机制用于避免对共享数据的不安全访问而导致的数据崩溃。下面按从轻到重讲述内核同步机制。
    【最好的同步】
    同步是一件烦人、容易出错,最重要的是拖慢并行的事情,所以最好的同步就是不用同步——这不是废话,而是在内核设计时的重要考虑。对不同的任务,量体裁衣,以不同的机制来处理;对每种机制,加以不同程度的限制,从而不同程度地简化用这个机制完成任务的编码难度,其中就包括减少对同步机制的需要。以下是一些书中举出的“设计简化同步”的例子:
    Interrupt handlers and tasklets need not to be coded as reentrant functions.
    Per-CPU variables accessed by softirqs and tasklets only do not require synchronization.
    A data structure accessed by only one kind of tasklet does not require synchronization.
    【每CPU变量(Per-CPU variables)】
    第二好的同步技术,是不共享。因此我们有了每CPU变量。但注意:内核抢占可能使每CPU变量产生竞争条件,因此内核控制路径应该在禁用抢占的情况下访问每CPU变量。
    【原子操作(Atomic operation)】
    具有“读-修改-写”特征的指令,如果不是原子的,就会出现竞争条件。
    非对齐的内存访问不是原子的;
    单处理器中,inc、dec这样的操作是原子的;
    多处理器中,由于会发生内存总线被其它CPU窃用,所以这些操作要加上lock前缀(0xf0),这样可以锁定内存总线,保证一条指令的原子性;
    有rep前缀(0xf2、0xf3)的指令不是原子的,每一循环控制单元都会检查挂起的中断。
    Linux提供了atomic_t和一系列的宏来进行原子操作。
    【优化屏障(Optimization barrier)、内存屏障(Memory barrier)】
    编译器喜欢在优化代码时重新安排代码的执行顺序,由于它对某些代码顺序执行的意义没有感知,所以可能对一些必须顺序执行的代码构成致命伤,比如把同步原语之后的指令放到同步原语之前去执行——顺便带一句,C++0x中对并行的改进正是努力使编译器能感知这些顺序的意义。
    优化屏障barrier()宏,展开来是asm volatile("":::"memory") 。这是一段空汇编,但volatile关键字禁止它与程序中的其它指令重新组合,而 memory则强迫编译器认为RAM的所有内存单元都给这段汇编改过了,因此编译器不能因为懒惰和优化直接使用之前放在寄存器里的内存变量值。但 优化屏障只阻止指令组合,不足以阻止指令重新排序。
    内存屏障原语mb()保证,在原语之后的操作开始执行之前,原语之前的已经完成,任何汇编语言指令都不能穿过内存屏障。
    80x86处理器中,I/O操作指令,有lock前缀的指令,写控制、系统、调试寄存器的指令,自动起内存屏障的作用。Pentium 4还引入了lfence、sfence和mfence这些指令,专门实现内存屏障。
    rmb()在Pentium 4之后使用lfence,之前则使用带lock的无意义指令来实现。wmb()直接展开为barrier(),因为Intel处理器不会对写内存访问重新排序。
    【自旋锁(Spin Locks)】
    自旋锁是一种忙等的锁,当获取锁失败,进程不会休眠,而是一直在那里自旋(spin)或者说忙等(busy waiting),不断循环执行cpu_relax()——它等价于pause指令或者rep; nop指令。
    自旋锁用spinlock_t表示,其中两个字段,slock代表锁的状态(1为未锁),break_lock代表有无其它进程在忙等这个锁,这两个字段都受到原子操作的保护。
    我们详细讨论一下spin_lock(slp)宏(slp代表要获取的spinlock_t):
    首先禁用内核抢占(preempt_disable()),然后调用平台相关的_raw_spin_trylock(),其中用xchg原子性地交换了8位寄存器%al(存着0)和slp->slock,如果交换出来的是正数(说明原先未锁),那么锁已经获得(0已经写入了slp->slock,上好了锁)。
    否则,获锁失败,执行下列步骤:
    1)执行preempt_enable(),这样其它进程就有可能取代正在等待自旋锁的进程。注意preempt_enable()本质上仅仅是将显式禁用抢占的次数减一,并不意味着就一定可以抢占了,能否抢占还取决于本次禁用之前有否禁用抢占、是否正在中断处理中、是否禁用了软中断以及PREEMPT_ACTIVE标志等等因素。就像,领导说:“我这里没问题了,你问问别的领导的意见吧。”。
    2)如果break_lock==0,就置为1.这样,持有锁的进程就能感知有没人在等锁,如果它觉得自己占着太长时间了,可以提前释放。
    3)执行等待循环:while (spin_is_locked(slp) && slp->break_lock) cpu_relax();
    4)跳转回到“首先”,再次试图获取自旋锁。
    奇怪的是,我未能在LXR中找到这段描述对应的源代码,也无从验证我由while (spin_is_locked(slp) && slp->break_lock) 产生的的一个疑问:当锁易手之后,怎么处理break_lock这个字段?
    【读/写自旋锁(Read/Write Spin Locks)与顺序锁(Seqlock)】
    读/写自旋锁允许并发读,写锁则独占。注意:在已有读者加读锁的情况下,写者不能获得写锁。读/写自旋锁rwlock_t的32位字段lock使用了25位,拆分为两部分,24位被设置则表示未锁,0-23位是读者计数器的补码,有读者时,0-23位不为0,有写者时,0-23位为0(写时无读者)。
    顺序锁则允许在读者正在读的时候,写者写入。这样做的优点是:写者无需等待读锁,缺点是有时读者不得不重复读取直到获得有效的副本。顺序锁seqlock_t有两个字段:一个是spinlock_t,写者需要获取,一个是顺序计数器,写者写时其值为奇数,写完时为偶数。读者每次读,前后都会检查顺序计数器。
    顺序锁的适用场合:读者的临界区代码没有副作用,写者不常写,而且,被保护的数据结构不包括写者会改而读者会解引用(dereference, *)的指针。
    【 RCU(Read-Copy Update)】
    锁还是少用的好:使用被所有CPU共享的锁,由于高速缓存行侦听(原书译为窃用)和失效而有很高的开销(a high overhead due to cache line-snooping and invalidation)。
    RCU允许多个读者和写者并发运行,它不使用锁,但它仅能保护被动态分配并通过指针引用的数据结构,而且在被RCU保护的临界区,任何内核控制路径都不能睡眠。
    读者读时执行rcu_read_lock()(仅相当于preempt_disable()),读完执行rcu_read_unlock()(仅相当于 preempt_enable( ) )。这很轻松,但是,内核要求每个读者在执行进程切换、返回用户态执行或执行idle循环之前,必须结束读并执行 rcu_read_unlock(),原因在写者这边:
    写者要更新一个数据结构的时候,会读取并制作一份拷贝,更新拷贝里的值然后修改指向旧数据的指针指向拷贝,这里会使用一个内存屏障来保证只有修改完成,指针才进行更新。但难点是,指针更新完之后不能马上释放旧数据,因为读者可能还在读,所以,写者调用call_rcu()。
    call_rcu()接受rcu_head描述符(通常嵌入在要释放的数据结构中——它自己知道自己是注定要受RCU保护的)的指针和回调函数(通常用来“析构”...)作为参数,把它们放在一个rcu_head描述符里,然后插入到一个每CPU的链表中。
    每一个时钟中断,内核都会检查是否已经经过了静止状态(gone through quiescent state,即已发生进程切换、返回用户态执行或执行idle循环) ——如果已经经过了静止状态,加上每个读者都遵循了内核的要求,自然所有的读者也都读完了旧拷贝。如果所有的CPU都经过了静止状态,那么就可以大开杀戒,让本地tasklet去执行链表中的回调函数来释放旧的数据结构。
    RCU是2.6的新功能,用在网络层和虚拟文件系统中。
    (按:RCU描述起来可累了,尤其是原书和源代码中对静止状态都语焉不详,很难理解其确切含义,暂时只能整理成上面这种理解,以后在研究下usage,弄清实际上应该如何理解。疑问所在:因为静止状态从字面上感觉,应该指旧数据结构仍需“静止地”残余的状态,但是由于内核后来还需要检查是否否度过了静止阶段,那么如何检查这种“仍需”?显然更为容易的是检查进程切换什么的,所以只好把静止状态理解为还未发生进程切换、返回用户态执行或执行idle循环的状态,然后再“ 经过了 ”。怎么想怎么别扭。)
    【信号量(Semaphores)】
    这个可不是System V的IPC信号量,仅仅是供内核路径使用的信号量。信号量对于内核而言太重了,因为获取不到锁的时候需要进程睡眠!所以中断处理程序不能用,可延迟函数也不能用...
    信号量struct semaphore包含3个字段,一个是atomic_t的count,也就是我们在IPC信号量那里已经熟知的表示可用资源的一个计数器;一个是一个互斥的等待队列,因为这里涉及了睡眠,信号量的up()原语在释放资源的同时需要唤醒一个之前心里堵得慌睡着了的进程;最后一个是sleepers,表示是否有进程堵在那里,用于在down()里面进行细节得恐怖而又非常有效的优化(为此,作者感叹:Much of the complexity of the semaphore implementation is precisely due to the effort of avoiding costly instructions in the main branch of the execution flow.)
    自然还有读/写信号量,这里不再敷述。
    【完成原语(Completion)】
    原书将之非常不准确地翻译为补充原语。
    Completion是一种类似信号量的原语,其数据结构如下:
    struct completion { unsigned int done; wait_queue_head_t wait; };
    它拥有类似于up()的函数complete()和类似于down()的wait_for_completion()。
    它和信号量的真正区别是如何使用等待队列中包含的自旋锁。在完成原语这边,自旋锁用来确保complete()和wait_for_completion()之间不会相互竞争(并发执行),而在信号量那边,自旋锁用于避免down()与down()的相互竞争。
    那么在什么情况下up()和down()可能出现竞争呢?
    其实do_fork()的源代码中就包含一个活生生的例子,用于实现vfork(),下面略去了与vfork()无关的代码:
    C代码
    long do_fork(...)
    {
    struct task_struct *p;
    /* ... */
    long pid = alloc_pidmap();
    /* ... */
    /* p是复制出来的新进程 */
    p = copy_process(...);
    if (!IS_ERR(p)) {
    /* 声明一个叫做vfork的完成原语 */
    struct completion vfork;
    if (clone_flags & CLONE_VFORK) {
    /* 把vfork这个完成原语传递给新进程 */
    p->vfork_done = &vfork;
    /* 初始化:未完成状态;
    这相当于一个一开始就为0的信号量——初始关闭,获取必睡的锁 */
    init_completion(&vfork);
    }
    /* ... */
    if (!(clone_flags & CLONE_STOPPED))
    /* 此时新进程运行 */
    wake_up_new_task(p, clone_flags);
    else
    p->state = TASK_STOPPED;
    /* ... */
    if (clone_flags & CLONE_VFORK) {
    /* 等待:新进程执行完会调用complete()标志done——相当于up()。
    这里相当于一个down(),所以老进程睡了 */
    wait_for_completion(&vfork);
    /* 接下来的代码继续执行的时候,老进程醒了,这并不一定说明新进程结束了。新进程可能仅仅是正在另外一个CPU上执行complete()函数,这时就出现了竞争条件。 */
    /* ... */
    }/* 完成原语vfork出作用域,消失了。如果使用的是信号量而非完成原语,相当于该信号量被销毁了,而这时新进程可能还在另外一个CPU执行up()/complete() */
    } else {
    free_pidmap(pid);
    pid = PTR_ERR(p);
    }
    return pid;
    }
    long do_fork(...)
    { struct task_struct *p;
    /* ... */
    long pid = alloc_pidmap();
    /* ... */
    /* p是复制出来的新进程 */
    p = copy_process(...);
    if (!IS_ERR(p)) {
    /* 声明一个叫做vfork的完成原语 */
    struct completion vfork;
    if (clone_flags & CLONE_VFORK) {
    /* 把vfork这个完成原语传递给新进程 */
    p->vfork_done = &vfork;
    /* 初始化:未完成状态;
    这相当于一个一开始就为0的信号量——初始关闭,获取必睡的锁 */
    init_completion(&vfork);
    }
    /* ... */
    if (!(clone_flags & CLONE_STOPPED))
    /* 此时新进程运行 */
    wake_up_new_task(p, clone_flags);
    else
    p->state = TASK_STOPPED;
    /* ... */
    if (clone_flags & CLONE_VFORK) {
    /* 等待:新进程执行完会调用complete()标志done——相当于up()。
    这里相当于一个down(),所以老进程睡了 */
    wait_for_completion(&vfork);
    /* 接下来的代码继续执行的时候,老进程醒了,这并不一定说明新进程结束了。新进程可能仅仅是正在另外一个CPU上执行complete()函数,这时就出现了竞争条件。 */
    /* ... */
    }/* 完成原语vfork出作用域,消失了。如果使用的是信号量而非完成原语,相当于该信号量被销毁了,而这时新进程可能还在另外一个CPU执行up()/complete() */
    } else {
    free_pidmap(pid);
    pid = PTR_ERR(p);
    }
    return pid;
    }
    【禁止本地中断】
    local_irq_disable()宏使用了cli汇编指令,通过清除IF标志,关闭了本地CPU上的中断。离开临界区时,则会恢复IF标志原先的值。
    禁止中断,在单CPU情形可以确保一组内核语句被当作一个临界区处理,因为这样不会受到新的中断的打扰。然而多CPU的情形中,禁止的仅是本地CPU的中断,因此,要和自旋锁配合使用,Linux提供了一组宏来把中断激活/禁止与自旋锁结合起来,例如spin_lock_irq()、spin_lock_bh()等。
    【禁止可延迟函数】
    可延迟函数禁止是中断禁止的一种弱化的形式,它通过前一篇笔记描述过的preempt_count字段来进行,具体的调用函数是local_bh_disable()。这里不再重复。
    【系统的并发度】
    为了性能,系统的并发度应该尽可能高。它取决于同时运转的I/O设备数(这需要尽可能减短中断禁止的时间),也取决于进行有效工作的CPU数(这需要尽可能避免使用基于自旋锁的同步原语,因为它对硬件高速缓存有不良影响)。
    有两种情况,既可以维持较高的并发度,也可以达到同步:
    共享的数据结构是一个单独的整数值,这样原子操作就足以保护它,这是在内核中广泛使用的引用计数器;
    类似将元素插入链表中这样的操作设计两次指针赋值,虽然不是原子的,但只要两次赋值依序进行,单一的一次操作仍能保证数据的一致性和完整性,因此,需要在两个指针赋值中间加入一个写内存屏障原语。
    【大内核锁(Big Kernel Lock,BKL)】
    大内核锁从前被广泛使用,现在用于保护旧的代码,从前它的实现是自旋锁,2.6.11之后则变成了一种特殊的信号量kernel_sem。kernel_sem中有一个lock_depth的字段,允许一个进程多次获得BKL。
    改变实现的目的是使得在被大内核锁保护的临界区内允许内核抢占或自愿切换。在自愿进程切换的情形(进程在持有BKL的情况下调用schedule()),schedule()会为之释放锁,切换回来的时候又为之获取锁,非常周到的服务。在抢占的情形,preempt_schedule_irq()会通过篡改lock_depth欺骗schedule()这个进程没有持有BKL,因此被抢占的进程得以继续持有这个锁。
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Preface The Audience for This Book Organization of the Material Level of Description Overview of the Book Background Information Conventions in This Book How to Contact Us Safari? Enabled Acknowledgments Chapter 1. Introduction Section 1.1. Linux Versus Other Unix-Like Kernels Section 1.2. Hardware Dependency Section 1.3. Linux Versions Section 1.4. Basic Operating System Concepts Section 1.5. An Overview of the Unix Filesystem Section 1.6. An Overview of Unix Kernels Chapter 2. Memory Addressing Section 2.1. Memory Addresses Section 2.2. Segmentation in Hardware Section 2.3. Segmentation in Linux Section 2.4. Paging in Hardware Section 2.5. Paging in Linux Chapter 3. Processes Section 3.1. Processes, Lightweight Processes, and Threads Section 3.2. Process Descriptor Section 3.3. Process Switch Section 3.4. Creating Processes Section 3.5. Destroying Processes Chapter 4. Interrupts and Exceptions Section 4.1. The Role of Interrupt Signals Section 4.2. Interrupts and Exceptions Section 4.3. Nested Execution of Exception and Interrupt Handlers Section 4.4. Initializing the Interrupt Descriptor Table Section 4.5. Exception Handling Section 4.6. Interrupt Handling Section 4.7. Softirqs and Tasklets Section 4.8. Work Queues Section 4.9. Returning from Interrupts and Exceptions Chapter 5. Kernel Synchronization Section 5.1. How the Kernel Services Requests Section 5.2. Synchronization Primitives Section 5.3. Synchronizing Accesses to Kernel Data Structures Section 5.4. Examples of Race Condition Prevention Chapter 6. Timing Measurements Section 6.1. Clock and Timer Circuits Section 6.2. The Linux Timekeeping Architecture Section 6.3. Updating the Time and Date Section 6.4. Updating System Statistics Section 6.5. Software Timers and Delay Functions Section 6.6. System Calls Related to Timing Measurements Chapter 7. Process Scheduling Section 7.1. Scheduling Policy Section 7.2. The Scheduling Algorithm Section 7.3. Data Structures Used by the Scheduler Section 7.4. Functions Used by the Scheduler Section 7.5. Runqueue Balancing in Multiprocessor Systems Section 7.6. System Calls Related to Scheduling Chapter 8. Memory Management Section 8.1. Page Frame Management Section 8.2. Memory Area Management Section 8.3. Noncontiguous Memory Area Management Chapter 9. Process Address Space Section 9.1. The Processs Address Space Section 9.2. The Memory Descriptor Section 9.3. Memory Regions Section 9.4. Page Fault Exception Handler Section 9.5. Creating and Deleting a Process Address Space Section 9.6. Managing the Heap Chapter 10. System Calls Section 10.1. POSIX APIs and System Calls Section 10.2. System Call Handler and Service Routines Section 10.3. Entering and Exiting a System Call Section 10.4. Parameter Passing Section 10.5. Kernel Wrapper Routines Chapter 11. Signals Section 11.1. The Role of Signals Section 11.2. Generating a Signal Section 11.3. Delivering a Signal Section 11.4. System Calls Related to Signal Handling Chapter 12. The Virtual Filesystem Section 12.1. The Role of the Virtual Filesystem (VFS) Section 12.2. VFS Data Structures Section 12.3. Filesystem Types Section 12.4. Filesystem Handling Section 12.5. Pathname Lookup Section 12.6. Implementations of VFS System Calls Section 12.7. File Locking Chapter 13. I/O Architecture and Device Drivers Section 13.1. I/O Architecture Section 13.2. The Device Driver Model Section 13.3. Device Files Section 13.4. Device Drivers Section 13.5. Character Device Drivers Chapter 14. Block Device Drivers Section 14.1. Block Devices Handling Section 14.2. The Generic Block Layer Section 14.3. The I/O Scheduler Section 14.4. Block Device Drivers Section 14.5. Opening a Block Device File Chapter 15. The Page Cache Section 15.1. The Page Cache Section 15.2. Storing Blocks in the Page Cache Section 15.3. Writing Dirty Pages to Disk Section 15.4. The sync( ), fsync( ), and fdatasync( ) System Calls Chapter 16. Accessing Files Section 16.1. Reading and Writing a File Section 16.2. Memory Mapping Section 16.3. Direct I/O Transfers Section 16.4. Asynchronous I/O Chapter 17. Page Frame Reclaiming Section 17.1. The Page Frame Reclaiming Algorithm Section 17.2. Reverse Mapping Section 17.3. Implementing the PFRA Section 17.4. Swapping Chapter 18. The Ext2 and Ext3 Filesystems Section 18.1. General Characteristics of Ext2 Section 18.2. Ext2 Disk Data Structures Section 18.3. Ext2 Memory Data Structures Section 18.4. Creating the Ext2 Filesystem Section 18.5. Ext2 Methods Section 18.6. Managing Ext2 Disk Space Section 18.7. The Ext3 Filesystem Chapter 19. Process Communication Section 19.1. Pipes Section 19.2. FIFOs Section 19.3. System V IPC Section 19.4. POSIX Message Queues Chapter 20. Program ExZecution Section 20.1. Executable Files Section 20.2. Executable Formats Section 20.3. Execution Domains Section 20.4. The exec Functions Appendix A. System Startup Section A.1. Prehistoric Age: the BIOS Section A.2. Ancient Age: the Boot Loader Section A.3. Middle Ages: the setup( ) Function Section A.4. Renaissance: the startup_32( ) Functions Section A.5. Modern Age: the start_kernel( ) Function Appendix B. Modules Section B.1. To Be (a Module) or Not to Be? Section B.2. Module Implementation Section B.3. Linking and Unlinking Modules Section B.4. Linking Modules on Demand Bibliography Books on Unix Kernels Books on the Linux Kernel Books on PC Architecture and Technical Manuals on Intel Microprocessors Other Online Documentation Sources Research Papers Related to Linux Development About the Authors Colophon Index

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值