操作系统 知识点整理

操作系统(Operating System,简称 OS)是管理计算机硬件与软件资源的程序,是计算机的基石。它本质上是一个运行在计算机上的软件程序 ,用于管理计算机硬件和软件资源。 运行在电脑上的所有应用程序都通过操作系统来调用系统内存以及磁盘等等硬件。操作系统屏蔽了硬件层的复杂性,更像是硬件使用的负责人,统筹着各种相关事项。

操作系统的内核(Kernel)是操作系统的核心部分,它负责系统的内存管理,硬件设备的管理,文件系统的管理以及应用程序的管理。 内核是连接应用程序和硬件的桥梁,决定着系统的性能和稳定性。

1. 用户态和系统态

根据进程访问资源的特点,可以把进程在系统上的运行分为两个级别:

  1. 用户态(User Mode):用户态运行的进程可以直接读取用户程序的数据。
  2. 系统态(Kernel Mode):系统态运行的进程几乎可以访问计算机的任何资源,不受限制。

2. 系统调用

我们运行的程序基本都是运行在用户态,需要通过系统调用去调用操作系统提供的系统态级别的子功能。也就是说,在用户程序中,凡是与系统态级别的资源有关的操作,如文件管理、进程控制和内存管理等,都必须通过系统调用方式向操作系统提出服务请求,并由操作系统代为完成。

按功能分类

  1. 设备管理:完成设备的请求或释放,以及设备启动等功能。
  2. 文件管理:完成文件的读、写、创建及删除等功能。
  3. 进程控制:完成进程的创建、撤销、阻塞及唤醒等功能。
  4. 进程通信:完成进程之间的消息传递或信号传递等功能。
  5. 内存管理:完成内存的分配、回收以及获取作业占用内存区大小及地址等功能。

3. 进程与线程

进程
系统运行程序的基本单位,各进程间相互独立的。系统运行一个程序即是一个进程从创建,运行到消亡的过程。

线程
线程是一个比进程更小的执行单位,一个进程在其执行的过程中可以产生多个线程。线程与进程不同的是同类的多个线程共享进程的堆和方法区资源,但每个线程有自己的程序计数器、虚拟机栈和本地方法栈。所以系统在产生一个线程,或是在各个线程之间作切换工作时,负担要比进程小得多。所以线程也被称为轻量级进程。

在 Java 中,当我们启动 main 方法时其实就是启动了一个 JVM 的进程,而 main 方法所在的线程就是这个进程中的一个线程,也称主线程。

3.1 进程状态

  1. 创建状态(new):进程正在被创建,尚未到就绪状态。
  2. 就绪状态(ready):进程已处于准备运行状态,此时进程获得了除了处理器之外的一切所需资源,等待处理器分配的时间片运行。
  3. 运行状态(running):进程正在处理器上运行(单核 CPU 下任意时刻只有一个进程处于运行状态)。
  4. 阻塞状态(waiting):又称等待状态,进程正在等待某一事件而暂停运行,如等待某资源为可用或等待 IO 操作完成。即使处理器空闲,该进程也不能运行。
  5. 结束状态(terminated):进程正在从系统中消失,可能是进程正常结束或其他原因中断退出运行。

进程状态

3.2 进程间的通信方式

  1. 管道/匿名管道(Pipes):先入先出,以内存文件的方式,实质是一个内核缓冲区,存在用于具有亲缘关系的父子进程间或者兄弟进程之间的通信。
  2. 有名管道(Names Pipes): 先入先出,以磁盘文件的方式存在,可以实现本机任意两个进程通信。
  3. 信号(Signal):用于通知接收进程某个事件已经发生;
  4. 消息队列(Message Queuing):消息的链表,具有特定的格式,它存放在内存中并由消息队列标识符标识。
    管道和消息队列的通信数据都是先进先出的原则,与管道不同的是消息队列存放在内核中,只有在内核重启(即操作系统重启)或者显示地删除一个消息队列时,该消息队列才会被真正的删除。消息队列可以实现消息的随机查询,消息不一定要以先进先出的次序读取,也可以按消息的类型读取。它比先入先出更有优势,克服了信号承载信息量少,管道只能承载无格式字 节流以及缓冲区大小受限等缺点。
  5. 信号量(Semaphores):计数器,用于多进程对共享数据的访问。信号量的意图在于进程间同步,这种通信方式主要用于解决与同步相关的问题并避免竞争条件。
  6. 共享内存(Shared memory):使得多个进程可以访问同一块内存空间,不同进程可以及时看到对方进程中对共享内存中数据的更新。这种方式需要依靠某种同步操作,如互斥锁和信号量等,可以说这是最有用的进程间通信方式。
  7. 套接字(Sockets):主要用于在客户端和服务器之间通过网络进行通信。套接字是支持 TCP/IP 的网络通信的基本操作单元,可以看做是不同主机之间的进程进行双向通信的端点。

3.3 线程间的同步方式

线程同步是两个或多个共享关键资源的线程的并发执行,应该同步线程以避免关键的资源使用冲突。

  1. 互斥量(Mutex):使用互斥对象,只有拥有互斥对象的线程才有访问公共资源的权限。因为互斥对象只有一个,所以可以保证公共资源不会被多个线程同时访问。比如 Java 中的 synchronized 关键词和各种 Lock 都是这种机制。
  2. 信号量(Semphares) :允许同一时刻多个线程访问同一资源,但是需要控制同一时刻访问此资源的最大线程数量。
  3. 事件(Event) :Wait/Notify,通过通知操作的方式来保持多线程同步,还可以方便的实现多线程优先级的比较操作。

3.4 进程的调度算法

调度算法为了确定首先执行哪个进程以及最后执行哪个进程以实现最大 CPU 利用率。

  1. 先到先服务(FCFS):从就绪队列中选择一个最先进入该队列的进程,并为它分配资源,使它立即执行并一直执行到完成或发生某事件而被阻塞放弃占用 CPU 时再重新调度。
  2. 短作业优先(SJF):从就绪队列中选出一个估计运行时间最短的进程,并为它配资源,使它立即执行并一直执行到完成或发生某事件而被阻塞放弃占用 CPU 时再重新调度。
  3. 时间片轮转:又称轮询(Round robin)调度。每个进程被分配一个时间段,称作它的时间片,即该进程允许运行的时间。
  4. 多级反馈队列:使用短进程优先的调度算法,仅照顾了短进程而忽略了长进程。多级反馈队列调度算法既能使高优先级的作业得到响应又能使短作业迅速完成。因而它是目前被公认的一种较好的进程调度算法,UNIX 操作系统采取的便是这种调度算法。
  5. 优先级调度:为每个流程分配优先级,首先执行具有最高优先级的进程。具有相同优先级的进程以先到先服务调度算法方式执行。可以根据内存要求、时间要求或任何其他资源要求来确定优先级。

4. 内存管理

内存管理主要负责内存的分配与回收(malloc 函数:申请内存,free 函数:释放内存),以及地址转换(将逻辑地址转换成相应的物理地址)等功能。

4.1 内存管理机制

分为连续分配管理方式和非连续分配管理方式。连续分配管理方式指为一个用户程序分配一个连续的内存空间,常见的如块式管理;非连续分配管理方式指允许一个程序使用的内存分布在离散或者说不相邻的内存中,常见的如页式管理和段式管理。

  1. 块式管理:将内存分为几个固定大小的块,每个块中只包含一个进程。程序运行需要内存的话,操作系统就分配给它一块。如果程序运行只需要很小的空间的话,分配的这块内存很大一部分几乎被浪费了,而这些在每个块中未被利用的空间,称为碎片。
  2. 页式管理:将主存分为大小相等且固定的一页一页的形式,页较小,相对相比于块式管理的划分力度更大,提高了内存利用率,减少了碎片。页式管理通过页表对应逻辑地址和物理地址。
  3. 段式管理:页式管理虽然提高了内存利用率,但是页式管理其中的页实际并无任何实际意义。 段式管理把主存分为一段段的,每一段的空间又要比一页的空间小很多 。但是,最重要的是段是有实际意义的,每个段定义了一组逻辑信息,如主程序段 MAIN、子程序段 X、数据段 D 及栈段 S 等。 段式管理通过段表对应逻辑地址和物理地址。
  4. 段页式管理机制:段页式管理机制结合了段式管理和页式管理的优点。将主存先分成若干段,每个段又分成若干页,段与段之间以及段的内部的都是离散的。

4.2 分页机制和分段机制

共同点

  1. 都是为了提高内存利用率,较少内存碎片。
  2. 都是离散存储的,即离散分配内存的方式,但每个页和段中的内存是连续的。

区别

  1. 页的大小是固定的,由操作系统决定;而段的大小不固定,取决于我们当前运行的程序。
  2. 分页仅仅是为了满足操作系统内存管理的需求;而段是逻辑信息的单位,在程序中可以体现为代码段,数据段,能够更好满足用户的需要。

4.3 快表和多级页表

在分页内存管理中,有两个要求:

  1. 虚拟地址到物理地址的转换要快。
  2. 解决虚拟地址空间大,页表也会很大的问题。
4.3.1 快表

为了解决虚拟地址到物理地址的转换速度,操作系统在页表方案基础之上引入了快表来加速转换。可以把快表理解为一种特殊的高速缓冲存储器,其中的内容是页表的一部分或者全部内容。作为页表的缓存,它的作用与页表相似,但是提高了访问速率。由于采用页表做地址转换,读写内存数据时 CPU 要访问两次主存。有了快表,有时只要访问一次高速缓冲存储器,一次主存,这样可加速查找并提高指令执行速度。

地址转换流程

  1. 根据虚拟地址中的页号查快表;
  2. 如果该页在快表中,直接从快表中读取相应的物理地址;
  3. 如果该页不在快表中,就访问内存中的页表,再从页表中得到物理地址,同时将页表中的该映射表项添加到快表中;
  4. 当快表填满后,又要登记新页时,就按照一定的淘汰策略淘汰掉快表中的一个页。
4.3.2 多级页表

为了避免把全部页表一直放在内存中占用过多空间,特别是那些根本就不需要的页表就不需要保留在内存中。多级页表利用时间换空间,动态创建二级页表、调入和调出二级页表都需要花费额外时间的,远没有不分级的页表来的直接;而仅利用局部性原理让这个额外时间开销降得比较低了而已。

4.4 逻辑(虚拟)地址和物理地址

编程一般只可能和逻辑地址打交道,比如在 C 语言中,指针里面存储的数值就可以理解成为内存里的一个地址,这个地址也就是逻辑地址,逻辑地址由操作系统决定。而物理地址指的是真实物理内存中地址,更具体一点来说就是内存地址寄存器中的地址,它是内存单元真正的地址。

4.5 CPU 寻址

现代处理器使用虚拟寻址(Virtual Addressing)的寻址方式。使用虚拟寻址,CPU 需要将虚拟地址翻译成物理地址,这样才能访问到真实的物理内存。 由 CPU 中内存管理单元(Memory Management Unit,MMU)完成虚拟地址转换为物理地址转换。

4.6 虚拟地址空间

如果没有虚拟地址空间,程序直接访问和操作的都是物理内存,那么用户程序可以访问任意内存、寻址内存的每个字节,这样就很容易破坏操作系统,导致操作系统崩溃,使得想要同时运行多个程序变得特别困难。例如同时运行微信和 QQ,微信在运行的时候给内存地址 1xxx 赋值后,QQ 也同样给内存地址 1xxx 赋值,那么 QQ 对内存的赋值就会覆盖微信之前所赋的值,这就导致微信会崩溃。

优势

  1. 程序可以使用一系列相邻的虚拟地址来访问物理内存中不相邻的大内存缓冲区。
  2. 程序可以使用一系列虚拟地址来访问大于可用物理内存的内存缓冲区。当物理内存的供应量变小时,内存管理器会将物理内存页(通常大小为 4 KB)保存到磁盘文件中,数据或代码页会根据需要在物理内存与磁盘之间移动。
  3. 不同进程使用的虚拟地址彼此隔离,一个进程中的代码无法更改正在由另一进程或操作系统使用的物理内存。

5. 虚拟内存

通过虚拟内存可以让程序可以拥有超过系统物理内存大小的可用内存空间,并为每个进程提供了一个一致的、私有的地址空间,每个进程拥有一片连续完整的内存空间。这样会更加有效地管理内存并减少出错。

虚拟内存不只是“使用硬盘空间来扩展内存”的技术。它的重要意义是它定义了一个连续的虚拟地址空间,并且把内存扩展到硬盘空间。目前,大多数操作系统都使用了虚拟内存,如 Windows 的虚拟内存;Linux 的交换空间等。

5.1 局部性原理

局部性原理是虚拟内存技术的基础,正是因为程序运行具有局部性原理,才可以只装入部分程序到内存就开始运行。

早在 1968 年的时候,就有人指出我们的程序在执行的时候往往呈现局部性规律,也就是说在某个较短的时间段内,程序执行局限于某一小部分,程序访问的存储空间也局限于某个区域。

局部性原理表现

  1. 时间局部性:如果程序中的某条指令一旦执行,不久以后该指令可能再次执行;如果某数据被访问过,不久以后该数据可能再次被访问。产生时间局部性的典型原因,是由于在程序中存在着大量的循环操作。
  2. 空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也将被访问,即程序在一段时间内所访问的地址,可能集中在一定的范围之内,这是因为指令通常是顺序存放和顺序执行的,数据也一般是以向量、数组和表等形式簇聚存储的。

时间局部性是通过将近来使用的指令和数据保存到高速缓存存储器中,并使用高速缓存的层次结构实现。空间局部性通常是使用较大的高速缓存,并将预取机制集成到高速缓存控制逻辑中实现。

虚拟内存技术实际上就是建立了 “内存一外存”的两级存储器的结构,利用局部性原理实现髙速缓存。

5.2 虚拟存储器

基于局部性原理,在程序装入时,可以将程序的一部分装入内存,而将其他部分留在外存,就可以启动程序执行。由于外存往往比内存大很多,所以我们运行的软件的内存大小实际上是可以比计算机系统实际的内存大小大的。在程序执行过程中,当所访问的信息不在内存时,由操作系统将所需要的部分调入内存,然后继续执行程序。另一方面,操作系统将内存中暂时不使用的内容换到外存上,从而腾出空间存放将要调入内存的信息。这样,计算机好像为用户提供了一个比实际内存大的多的存储器,即虚拟存储器。

实际上,虚拟内存同样是一种时间换空间的策略,用 CPU 的计算时间,页的调入调出花费的时间,换来了一个虚拟的更大的空间来支持程序的运行。

5.3 虚拟内存的实现

虚拟内存的实现需要建立在离散分配的内存管理方式的基础上。

实现基础

  1. 一定容量的内存和外存:在载入程序的时候,只需要将程序的一部分装入内存,而将其他部分留在外存,然后程序就可以执行了;
  2. 缺页中断:如果需执行的指令或访问的数据尚未在内存(称为缺页或缺段),则由处理器通知操作系统将相应的页面或段调入到内存,然后继续执行程序;
  3. 虚拟地址空间 :逻辑地址到物理地址的变换。

实现方式

  1. 请求分页存储管理:建立在分页管理之上,为了支持虚拟存储器功能而增加了请求调页功能和页面置换功能。请求分页是目前最常用的一种实现虚拟存储器的方法。在请求分页存储管理系统中,在作业开始运行之前,仅装入当前要执行的部分段即可运行。假如在作业运行的过程中发现要访问的页面不在内存,则由处理器通知操作系统按照对应的页面置换算法将相应的页面调入到主存,同时操作系统也可以将暂时不用的页面置换到外存中。
  2. 请求分段存储管理:建立在分段存储管理之上,增加了请求调段功能、分段置换功能。请求分段储存管理方式就如同请求分页储存管理方式一样,在作业开始运行之前,仅装入当前要执行的部分段即可运行;在执行过程中,可使用请求调入中断动态装入要访问但又不在内存的程序段;当内存空间已满,而又需要装入新的段时,根据置换功能适当调出某个段,以便腾出空间而装入新的段。
  3. 请求段页式存储管理。

请求分页存储管理与分页存储管理
请求分页存储管理建立在分页管理之上,根本区别在于是否将程序全部所需的全部地址空间都装入主存,这也是请求分页存储管理可以提供虚拟内存的原因。请求分页存储管理不要求将作业全部地址空间同时装入主存,基于这一点就可以提供虚存,而分页存储管理却不能提供虚存。

5.4 页面置换算法

地址映射过程中,若在页面中发现所要访问的页面不在内存中,则发生缺页中断 。缺页中断就是要访问的页不在主存,需要操作系统将其调入主存后再进行访问。在这个时候,被内存映射的文件实际上成了一个分页交换文件。

当发生缺页中断时,如果当前内存中并没有空闲的页面,操作系统就必须在内存选择一个页面将其移出内存,以便为即将调入的页面让出空间。用来选择淘汰哪一页的规则叫做页面置换算法,可以把页面置换算法看成是淘汰页面的规则。

  1. 最佳(Optimal,OPT):所选择的被淘汰页面将是以后永不使用的,或者是在最长时间内不再被访问的页面,这样可以保证获得最低的缺页率。但由于目前无法预知进程在内存下的若干页面中哪个是未来最长时间内不再被访问的,因而该算法无法实现,一般作为衡量其他置换算法的方法。
  2. 先入先出(First In First Out, FIFO):总是淘汰最先进入内存的页面,即选择在内存中驻留时间最久的页面进行淘汰。
  3. 最近最少使用(Least Currently Used, LRU):LRU 算法赋予每个页面一个访问字段,用来记录一个页面自上次被访问以来所经历的时间 T,当需要淘汰一个页面时,选择现有页面中其 T 值最大的淘汰。
  4. 最少使用(Least Frequently Used, LFU):选择在之前时期使用最少的页面作为淘汰页。

参考:
操作系统
王道考研操作系统知识点整理

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值