操作系统 学习笔记

操作系统 学习笔记

第1章 计算机系统概述

1.1 操作系统的基本概念

1.1.1 操作系统的概念(定义)

操作系统(Operating system os)是指控制和管理整个计算机系统的软件和硬件的资源,并合理地组织调度计算机的工作和资源分配,以提供给用户和其他软件方便的接口和环境,他是计算机系统中最基本的系统软件
计算机操作系统的层次结构

1.1.2 操作系统的特征

1.并发

并发:指两个事件或多个事件在同一时间间隔内发生,这些事件宏观上是同时发生的,但是微观上是交替发生的
常考易混概念:–并行:指两个或多个事件在同一时刻同时发生

操作系统的并发性指计算机系统中“同时”运行着多个程序,这些程序宏观上是同时运行着,而微观上看是交替运行的
操作系统就是伴随着“多道程序技术”而出现的,因此,操作系统和程序并发是一起诞生的。
注意(重要考点):
单核cpu同一时刻只能执行一个程序,各个程序只能并发地执行
多核cpu同一时刻可以执行多个程序,多个程序可以并发地执行

2.共享

共享:即资源共享,是指系统中的资源可供内存中多个并发执行的进程共同享用
共有两种共享方式,互斥共享方式和同时共享方式
(1)互斥共享方式
系统中的某些资源,虽然可以提供给多个进程使用,但一个时间段内只允许一个进程访问该资源
(2)同时共享方式
系统中的某些资源,允许一个时间段内由多个进程“同时”对他们进行访问
这里的“同时”往往是宏观上的,而在微观上,这些进程可能交替地对该资源进行访问的(即分时共享)

并发与共享的关系:
并发性是指计算机系统中同时存在运行着的程序
共享性是指计算机系统中的资源可供内存中多个并发执行的进程共同使用
如果系统失去了并发性,那么系统只能同时只有一个进程在运行,则失去了共享性存在的意义,如果系统失去了共享性,则并发性失去了存在的意义

3.虚拟

虚拟是指把一个物理上的实体变成若干个逻辑上的对应物,物理实体(前者)是实际存在的,而逻辑上对应物(后者)是用户感受到的
虚拟技术可以分为空分复用技术(如虚拟存储器技术)和时分复用技术(如虚拟处理器)
如果系统失去了并发性,那么系统只能同时只有一个进程在运行,则虚拟技术就失去了存在的意义

4.异步

异步:是指,在多道程序环境中,允许多个程序并发执行,但由于资源有限,进程的执行不是一贯到底的,而是走走停停的,以不可预知的速度向前推进,这就是进程的异步性
如果失去了并发性,即系统只能串行地运行各个程序,那么每个系统的执行会一贯到底,只有系统拥有了并发性,才能可能导致异步性
在这里插入图片描述

1.1.3 操作系统的目标和功能

1.作为系统资源的管理者

用qq和朋友视频聊天的过程:
step1:在各个文件夹中找到qq的安装位置 逐层打开文件夹,找到qq.exe 这个程序(可执行文件)的存放位置 文件管理
补充知识:执行一个程序前需要将该程序放到内存中,才能被cpu处理
step2:双击打开qq.exe 需要把该程序相关的数据存放到内存中 存储器管理
step3:qq程序正常运行 对应的进程被处理机(cpu)处理 处理机管理
step4:开始和朋友视频聊天 需要将摄像头分配给进程 设备管理

2.作为用户与计算机硬件之间的接口 向上层提供方便易用的服务

(1)GUI 用户图形交互界面
(2)命令接口
a)联机命令接口= 交互式命令接口
联机命令接口实例(windows系统)
特点:用户说一句,系统跟着做一句
实例:
step1: win键+R键
step2: 输入cmd,按回车,打开命令解释器
step3: 尝试使用time指令
b)脱机命令接口 = 批处理命令接口
使用windows系统的搜索功能,搜索c盘中的*.bat文件 用记事本打开一个
特点是:用户说一堆,系统跟着做一堆
在这里插入图片描述

(3) 程序接口:
可以在程序中进行系统调用的来使用的程序接口 普通用户不能直接使用程序接口,只能通过程序代码间接使用
如:写c语言的”hello world“程序时,在printf函数的底层就使用到了操作系统提供的显式相关的”系统调用“
在有的教材中:
系统调用 = 广义指令

3. 作为扩充机器 作为最接近硬件的层次

需要实现对硬件机器的拓展

没有任何软件支持的计算机称为裸机,在逻辑上安装操作系统,可以提供资源管理功能和方便用户的服务功能,将裸机改造成功能更强,使用更方便的机器
通常把覆盖了软件的机器称为扩充机器,又称之为虚拟机

操作系统对硬件机器的拓展,将cpu 内存 磁盘 显示器 硬盘 等硬件合理地组织起来,让各种硬件能够相互协调配合,实现更多更复杂的功能

在这里插入图片描述

1.2操作系统的发展与分类

1.2.1 手工操作阶段(此阶段无操作系统)

两个突出的缺点:①用户独占全机,虽然不会出现因资源已被用户占用而等待的现象,但资源利用率低,②cpu等待手工操作,cpu的利用不充分
唯一的解决方式是用高速的机器替代相对较慢的手工操作来对作业进行控制在这里插入图片描述

1.2.2 批处理阶段(操作系统开始出现)

1.单道批处理系统

引入脱机输入/输出技术(用外围机+磁带完成),并由监督程序负责控制作业的输入,输出。
在这里插入图片描述

引入脱机输入/输出技术,并由监督程序负责控制作业的输入和输出
主要优点:缓解了一定程度的人机速度矛盾,资源利用率有所提升
主要缺点:内存中仅能有一道程序运行结束之后才能调入下一道程序,cpu有大量的时间是在空闲等待i/o完成,资源利用率依然很低
在这里插入图片描述

2.多道批处理系统

操作系统正式诞生,用于支持多道程序并发运行
主要优点:多道程序并发执行,共享计算机资源,资源利用率大幅提升,cpu和其他资源更能保持“忙碌”状态,系统吞吐量增大
主要缺点:用户响应时间长,没有人机交互功能(用户提交自己的作业之后就只能等待计算机处理完成,中间不能控制自己的作业执行。eg:无法调试程序/无法在程序运行过程中输入一些参数)
在这里插入图片描述

1.2.3 分时操作系统

分时操作系统:计算机以时间片为单位轮流为各个用户/作业服务,各个用户可通过终端与计算机进行交互
主要优点:用户请求可以被及时响应,解决了人机交互问题,允许多个用户同时使用一台计算机,并且用户对计算机的操作相对独立,感受不到别人的存在
主要缺点:不能优先处理一些紧急任务,操作系统对各个用户/作业都是完全公平的,循环地为各个用户/作业服务提供服务一个时间片,不区分任务的紧急性

在这里插入图片描述

1.2.4 实时操作系统

实时操作系统:
主要优点:能够优先响应一些紧急任务,某些紧急任务不需要时间片排队
在实时操作系统的控制下,计算机系统接收到外部信号后及时进行处理,并且要在严格的时间内处理完事件,实时操作系统的主要特点是及时性和可靠性
在这里插入图片描述

1.2.5 网络操作系统和分布式计算机系统

网络操作系统:是伴随着计算机网络的发展而诞生的,能把网络各个计算机有机地结合起来,实时数据传送等功能,实现网络中各种资源的共享(如文件共享)和各台计算机之间的通信,(如:windows nt 就是一款典型的网路操作系统,网站服务器就可以使用)

分布式操作系统:主要特点是分布性和并行性,系统中的各台计算机地位相同,任何工作都可以分布在这些计算机上,由他们并行,协同完成这个任务

1.2.6 个人计算机操作系统
如:windowsxp macos 方便个人使用
在这里插入图片描述

1.3 操作系统的运行环境

1.3.1操作系统的运行机制

1.预备知识:程序是怎么样执行的?

在这里插入图片描述
”指令“就是处理器(CPU)能识别,执行的最基本命令
注:很多人习惯把Linux,windows,macos的”小黑框“中使用的命令也成为指令也称为”指令“,其实这是”交互式命令接口“,注意与本节的”指令“区分开,本节中的指令指的是二进制机器指令

2.内核程序v.s.应用程序
3.特权指令v.s.非特权指令

我们普通程序员写的程序是"应用程序",
应用程序只能使用“非特权指令” 如加法指令,减法指令
微软,苹果有一帮人负责实现操作系统,他们写的是“内核程序”
有许多内核程序组成了“操作系统内核”,简称“内核”
内核是操作系统最重要最核心的部分,也是最接近硬件的部分
操作系统的功能未必都在内核中,如图形化用户操作界面GUI

操作系统内核被称为“管理者”,有时会让cpu执行一些“特权指令”,如:内春清除指令,这些指令影响重大,只允许“管理者”–即操作系统内核使用

4.内核态 v.s. 用户态

cpu能判断出指令类型,但如何判断它正在运行此时正在运行的是内核程序还是应用程序?
cpu有两种状态,“内核态”和“用户态”
处于“内核态”时,说明此时正在运行的是内核程序,此时可以执行特权指令
处于“用户态”时,说明此时正在运行的是应用程序,此时只能执行非特权指令
拓展:cpu中有一个寄存器叫程序状态字寄存器(PSW),其中有一个二进制为,1代表“内核态”,0代表“用户态”,
别名 内核态=核心态=管态 用户态=目态
在这里插入图片描述

5.内核态,用户态的切换

在这里插入图片描述

1.3.2 中断和异常的概念

1.中断的作用(广义的中断)

CPU上会运行两种程序,一种是操作系统内核程序(是整个系统的管理者),一种是应用程序
在合适的情况下,操作系统内核会把cpu的试用权主动让给应用程序(第二章进程管理相关内容)
“中断”是让操作系统内核夺回cpu使用权的唯一途径,中断会使cpu由用户态变为内核态,使操作系统重新夺回对cpu的控制权
如果没有“中断”机制 那么一旦应用程序上cpu运行,cpu就会一直运行这个程序
内核态→用户态:执行一条特权指令—修改psw的标志位为“用户态”,这个动作意味着操作系统将主动让出cpu的使用权
用户态→内核态:由“中断”引发,硬件自动完成变态过程,触发中断信号意味着操作系统将强行夺回cpu的使用权

2.中断的类型

在这里插入图片描述

(1) 内中断的分类 (异常,例外)

与当前执行的指令相有关,中断信号来源自cpu内部

1.陷阱,陷入

由陷入指令引发,是应用程序故意引发的

执行“陷入指令”,意味着应用程序主动地把cpu控制权还给了操作系统内核,“系统调用”就是通过陷入指令完成的
例子1:有时候应用程序想请求操作系统内核的服务,此时会执行一条特殊的指令–陷入指令,该指令会引发一个内部中断信号

2.故障

由错误条件引起的,可能被内核程序修复,内核程序修复故障后会把cpu使用权还给应用程序,让它继续执行下去,如:缺页故障

3.终止

由致命错误引起,内核程序无法修复该错误,因此一般不再将cpu使用权还给引发中止的应用程序,而是直接终止该应用程序,如:整数除0,非法使用特权指令
若当前指令是非法的,则会引发一个中断信号
例子2:试图在用户态下执行特权指令
例子3:执行除法指令,发现除数为0

(2)外中断的分类(中断)

每一条指令执行结束时,cpu都会例行检查是否有外中断信号

与当前执行的指令无关,中断信号源自于cpu外部

1.时钟中断

例子1:时钟中断—由时钟部件发来的中断信号
时钟部件每隔一段时间片(如50ms)会给cpu发送一个时钟中断信号

2.I/O中断

例子2:I/O中断----由输入/输出设备发来的中断信号
在这里插入图片描述

3.中断机制的基本原理

不同的中断信号,需要用不同的中断处理程序来处理,当cpu检测到中断信号后,会根据中断信号的类型去查询“中断向量表”,以此来找到相应的中断处理程序在内存中存放的位置。
在这里插入图片描述
在这里插入图片描述

1.3.3系统调用

知识点回顾:
操作系统作为用户和计算机硬件之间的接口,需要向上提供一些简单易用的服务,主要包括命令接口和程序接口,其中,程序接口由一组系统调用组成。
在这里插入图片描述
“系统调用”就是操作系统提供给应用程序(程序员/编程人员)使用的接口,可以理解为一种可供应用程序调用的特殊函数,应用程序可以通过系统调用来请求获得操作系统内核的服务

1.系统调用与库函数的区别

在这里插入图片描述

普通应用程序可直接进行系统调用,也可使用库函数。有的库函数涉及系统调用,有的不涉及
编程语言向上提供库函数,有时会将系统调用封装成库函数,以隐藏系统调用的一些细节,使程序员编程更加方便
操作系统向上提供系统调用,使得上层程序能请求内核的服务
裸机

不涉及系统调用的库函数:如c语言数学库中的“取绝对值”的函数
涉及系统调用的库函数:如“创建一个新文件”的函数

2.小例子:为什么系统调用是必须的?

在这里插入图片描述

解决方法:由操作系统内核对共享资源进行统一的管理,并向上提供“系统调用”,用户进程想要使用打印机这种资源,只能通过系统调用向操作系统内核发出请求,内核会通过各个请求进行协调处理

3.什么功能要使用系统调用?

应用程序通过系统调用请求操作系统的服务,而系统中的各种资源共享资源内核统一掌管,因此凡是与共享资源有关的操作(如存储分配,I/O操作,文件管理等),都必须通过系统调用的方式向操作系统内核提出服务请求,由操作系统内核代完成,这样可以保证 系统的稳定性和安全性,防止用户进行非法操作。
在这里插入图片描述

4.系统调用的过程

在这里插入图片描述
传递系统调用参数→执行陷入指令(用户态)→执行响应的内请求核程序处理系统调用(核心态)→返回应用程序
注意:
1.陷入指令是在用户态执行的,执行陷入指令后立即引发一个内中断,使cpu进入核心态
2.发出系统调用请求是在用户态,而对系统调用的相应处理在核心态下进行
注意别名:陷入指令=trap指令=访管指令在这里插入图片描述

1.4 操作系统的体系结构

1.4.1 大内核和微内核

1.操作系统的内核

在这里插入图片描述
**时钟管理:**利用时钟中断实现计时功能
**原语:**原语是一种特殊的程序,具有原子性,也就是说,这段程序的运行必须一气呵成,不能被”中断“

内核是操作系统最基本,最核心的部分
实现操作系统内核功能的那些程序叫做内核程序
在这里插入图片描述
注意:
操作系统内核需要运行在内核态
操作系统的非内核态功能运行在用户态

2.操作系统的体系结构

在这里插入图片描述
在这里插入图片描述
注意:变态的过程是有成本的,要消耗不小的时间,频繁的变态会降低系统性能
在这里插入图片描述

第2章 进程管理

2.1 进程与线程

2.1.1 进程的概念和特征

1.进程的概念

程序:是静态的,就是存放在磁盘里的可执行文件,就是一系列的指令集合。
进程:是动态的,是程序的一次执行过程 (同一个程序多次执行会对应多个进程)

2.进程的组成–PCB

当进程被创建时,操作系统会为该进程分配一个唯一的,不重复的“身份证号”—PID (process ID,进程id)
操作系统会记录PID,进程所属用户ID(UID)(基本的进程描述信息,可以让操作系统区分各个进程)
还要记录给进程分配了那些资源(如:分配了多少内存,正在使用那些i/o设备,正在使用哪些文件)(用于实现操作系统对资源的管理)
还要记录进程的运行情况,(如:cpu使用时间,磁盘使用情况,网络流量使用情况等)(可用于实现操作系统对进程的控制,调度)
这些信息都会被保存到一个数据结构PCB(Process Control Block)中,即进程控制块
操作系统需要对各个并发运行的进程进行管理,但凡管理时所需要的信息,都会被放在pcb中
进程控制块(PCB)PCB是进程存在的唯一标志,当进程被创建时,操作系统为其创建pcb,当进程结束时,会回收其pcb。
一个进程实体(进程映像)由pcb,程序段,数据段组成
进程是动态的,进程实体(进程映像)是静态的
进程实体反映了进程在某一时刻的状态(如++x后,x=2)

3.进程的组成

程序段,数据段,pcb三部分组成了进程实体(进程映像)
引入进程实体的概念后,可把进程定义为:
进程是进程实体的运行过程,是系统进行资源分配调度(一个进程被“调度”就是指操作系统决定在这个进程上cpu运行)的一个独立单位
注意:pcb是进程存在的唯一标志!
在这里插入图片描述

4.进程的特征

程序是静态的,进程是动态的,相比于程序,进程拥有以下特征:
在这里插入图片描述
在这里插入图片描述

2.1.2 进程的状态与转换

1.进程的状态—创建态(又称为新建态),就绪态

进程正在被创建时,它的状态是 ”创建态“,在这个阶段操作系统会为进程分配资源,初始化pcb
当进程创建完成后,便进入了 ”就绪态“ ,处于就绪态的进程已经具备运行条件,但由于没有空闲cpu,就暂时不能运行

2.进程的状态—运行态

如果一个进程此时在cpu上运行,那么这个进程处于 “运行态”
CPU会执行该进程对应的程序(执行指令序列)
在这里插入图片描述

在进程运行的过程中,可能会请求等待某个事件的发生(如等待某种系统资源的分配,或者等待其他进程的响应)
在这个事件发生之前,进程无法继续往下执行,此时操作系统会让这个进程下cpu,并让它进入 “阻塞态” (又称为等待态)
当cpu空闲时,又会选择另一个 “就绪态” 进程上cpu运行
一个进程可以执行exit系统调用,请求操作系统终止该进程,此时系统进入**“终止态”**(又称为结束态),操作系统会让该进程下cpu,并回收内存空间等资源,最后还要回收该进程的PCB。
当终止进程的工作完成之后,这个进程就彻底消失了。

3.进程状态的转换

在这里插入图片描述

注意:不能由堵塞态直接转换为运行态,也不能由就绪态直接转换为阻塞态(因为进入阻塞态是进程主动请求的,必然需要进程在运行时才能发出这种请求)
在这里插入图片描述进程PCB种,会有一个变量state来表示进程的当前状态,如1表示创建态,2表示就绪态,3表示运行态
为了对同一个状态下的各个进程进行统一的管理,操作系统会将各个进程的PCB组织起来

2.1.3进程控制

1 .什么是进程控制?

进程控制的主要功能是对系统中的所有进程实施有效的管理,它具有创建新进程,销毁已有进程,实现进程状态转换等功能
简化理解:反正进程控制就是要实现进程状态转换在这里插入图片描述

2. 如何实现进程控制?(使用原语)

原语是一种特殊的程序,它的执行具有原子性,也就是说,这段程序的运行必须一气呵成,不可中断。

在这里插入图片描述
思考:如何进程控制要(状态转换)的过程要一气呵成?
如果不能一气呵成,就有可能导致操作系统中的某些关键数据结构信息不统一的情况,这会影响操作系统进行别的管理工作
“原语”具有一气呵成的属性
在这里插入图片描述

3.如何实现原语的“原子性”?

原语的执行具有原子性,即执行过程中只能一气呵成,期间不能不允许被中断。
可以使用“开中断指令”和“关中断指令”这两个特权指定指令来实现原子性
CPU执行了关中断指令之后,就不再例行执行检查中断信号,直到执行开中断指令之后,才会恢复例行检查
这样,在关中断指令和开中断指令中间执行的指令序列是不可中断的,这就实现了“原子性”

4.进程控制相关的原语

进程的创建
在这里插入图片描述
进程的终止
在这里插入图片描述
进程的阻塞和唤醒
在这里插入图片描述
进程的切换
在这里插入图片描述
补充知识:
CPU中会设置许多“寄存器”,用来存放程序运行过程中所需的某些数据。
PSW:程序状态字寄存器
PC:程序计数器,存放下一条指令的地址
IR:指令寄存器,存放当前正在执行的指令
通用寄存器:其他一些必要的信息

程序所需要的运行环境是什么?
进程上下文(context)
在这里插入图片描述
在这里插入图片描述
无论是哪个进程控制原语,要做的无非三类事情:
1.更新PCB中的信息(修改进程的状态(state)保存/恢复运行环境)
2.将PCB插入合适的队列
3.分配/回收资源

2.1.4进程的组织

1.进程的组织–链接方式

在这里插入图片描述

2.进程的组织—索引方式

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.1.5 进程的通信

1.什么是进程通信

顾名思义,进程通信就是指进程之间的信息交换
进程是分配系统资源的单位(包括内存地址空间),因此各进程拥有的内存地址空间相互独立
为了保证安全,一个进程是不能直接访问另一个进程的地址空间的
但是进程之间的信息交换又是必须实现的,为了保证进程间的安全通信,操作系统提供了一些方法
在这里插入图片描述

2.进程通信–共享存储

在这里插入图片描述
两个进程对共享空间的访问必须是互斥的,(互斥访问通过操作系统提供的工具来实现),操作系统只负责提供共享空间和同步互斥工具(如P,V操作)
在这里插入图片描述
基于数据结构的共享:比如共享空间里只能放一个长度为10的数组,这种共享方式速度慢,限制多,是一种低级通信方式
基于存储区的共享,在内存中画出一块共享存储区,数据的形式,存放位置都由进程控制,而不是操作系统,相比之下,这种共享方式速度更快,是一种高级通信的方式

3.进程通信—管道通信

“管道”是指用于连接读写进程的一个共享文件,又名pipe文件。其实就是在内存中开辟一个大小固定的缓冲区
在这里插入图片描述

1.管道只能采用半双工通信,某一段时间内只能实现单向的传输,如果要实现双向同时通信,则需要设置两个管道
2.各个进程要互斥的访问管道
3.数据以字符流的形式写入管道,当管道写满时,写进程的Write()系统调用将被堵塞,等待读进程将数据取走,当读进程将数据全部取走以后,管道变空,此时读进程的read()系统调用将被阻塞
4.如果没写满,就不允许读,如果没读空,就不允许写
5.数据一旦被读出,就从管道中被抛弃,这就意味着读进程最多只能有一个,否则可能会有读错数据的情况

4.进程通信—消息传递

进程间得数据交换以格式化的消息(message)为单位,进程通过操作系统提供的“”发送消息/接收消息“两个原语进行数据交在这里插入图片描述
消息头包括:发送进程id,接受进程id,接受进程id,消息类型,消息长度等格式化的信息(计算机网络中发送的”报文“其实就是一种格式化的信息)

(1)直接通信方式

消息直接挂到接收进程的消息缓冲队列上

(2)间接通信方式

消息首先要发送到中间实体(信箱)中,因此也称”信箱通信方式“Eg:计网中的电子邮件系统
在这里插入图片描述

2.1.6 线程概念和多线程模型

1.什么是线程,为什么要引入线程?

可以把线程理解为”轻量级进程“,线程是一个基本的CPU执行单元,也是程序执行流的最小单位
引入线程之后,不仅是进程之间可以并发,进程内的各线程之间也可以并发,从而进一步提升了系统的并发性,使得一个进程内部也可以并发处理各种任务(如qq视频,文字聊天,传文件)
引入线程以后,进程只作为除cpu之外的系统资源的分配单元,(如打印机,内存地址空间等都是分配给进程的)

2.引入线程机制后,有什么变化?

在这里插入图片描述

3.线程的属性

在这里插入图片描述

4.线程的实现方式

在这里插入图片描述

用户级线程(User-lever Thread ,ULT)

历史背景:早期的操作系统(如 早期Unix)只支持进程,不支持线程,当时的”线程“是由”线程“是由线程库实现的
1.用户级线程由应用程序通过线程库实现,所有的线程管理工作都是由应用程序负责(包括线程切换)
2.用户级线程中,线程切换可以在用户态下即可完成,无效操作系统干预
3.在用户看来,是有多个线程。但是在操作系统内核看来,并不意识到线程的存在,”用户级线程“就是”从用户视角能看到的线程“
4.优缺点:
优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高
缺点:当一个用户级线程被堵塞之后,整个线程都会被堵塞,并发度不高,多个线程不可在多核处理机上并行运行

内核级线程(Kernel-Level Thread ,KLT 又称“内核支持的线程”)

在这里插入图片描述
1.内核级线程的管理工作由操作系统内核完成
2.线程调度,切换等工作都由内核负责,因此内核级线程的切换必然需要在核心态下才能完成
3.操作系统会为每一个内核级别建立相应的TCB(Thread Contrl Block,线程控制块),通过TCB对线程进行管理 。 ”内核级线程“就是”从操作系统内核视角看能看到的线程“
4. 优缺点:
优点:当一个线程被堵塞后,别的线程还可以继续执行,并发能力强,多线程可在多核处理机上并行执行
缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大

5.多线程模型

在支持内核级别的系统中,根据用户级别线程核内核级线程的映射关系,可以划分成几种多线程模型

(1)一对一模型

一对一模型:一个用户级线程映射到一个内核级线程。每一个用户进程有与用户级别线程同数量的内核级线程
在这里插入图片描述
优点:当一个线程被堵塞后,别的线程还可以继续执行,并发能力强,多线程可以多喝处理机上并发执行
缺点:一个用户进程占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大

(2)多对一模型:

多个用户级别线程映射到一个内核级线程。且一个进程只被分配一个内核级线程
在这里插入图片描述
优点:当一个线程被堵塞后,别的线程还可以继续执行,并发能力强,多线程可在多核处理机上并行执行
缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大
重点重点重点:
操作系统只能”看得见“内核级线程,因此只有内核级线程才是处理机分配的单位

(3)多对多模型

多对多模型:n用户及线程映射到m个内核级线程(n>=m)每个用户进程对应m个内核级线程
在这里插入图片描述
克服了多对一模型并发度不高的缺点(一个堵塞全体堵塞)又克服了一对一模型中一个用户进程占用太多内核级线程,开销太大的缺点
在这里插入图片描述
在这里插入图片描述

2.2 处理机调度

2.2.1 调度的概念

1.调度的基本概念

在这里插入图片描述

当有一堆任务要处理,但由于资源有限,有些事情没法同时处理,这就需要确定某些规则来决定处理这些任务的顺序,这就是“调度”研究的问题。

2.调度的三种层次—高级调度

在这里插入图片描述
(简化理解:好几个程序需要启动,到底先启动哪个?)
高级调度(作业调度):按一定的原则从外存的作业后备队列中挑选出一个作业调入内存,并创建进程,每个作业只调入一次,调出一次,作业调入时会建立PCB,调出时才撤销PCB。

3.调度的三个层次—低级调度

在这里插入图片描述
低级调度(进程调度/处理机调度)—按照某种策略从就绪队列中选取一个进程,将处理机分配给它
进程调度是操作系统中最基本的一种调度,在一般的操作系统中都必须配置进程调度。
进程调度的频率很高,一般几十毫秒一次

4.调度的三个层次----中级调度

在这里插入图片描述
内存不够时,可将某些进程的数据调出外存,等内存空闲或者进程需要运行时候再重新调入内存。
暂时调到外存等待的进程状态为挂起状态,被挂起的进程PCB会被组织成挂起队列
中级调度(内存调度)—按照某种策略决定将哪种处于挂起状态的进程重新调入内存
一个进程可能会被多次调出,调入内存,因此中级调度发生的频率要比高级调度要高

5.补充知识:进程的挂起状态与七状态模型

展示调到外存等待的进程状态为挂起状态(挂起态,suspend)
挂起态又可以进一步细分为就绪挂起,阻塞挂起两种状态
五状态模型→七状态模型
在这里插入图片描述

6.三层调度的联系对比

在这里插入图片描述
在这里插入图片描述

2.2.2 调度的时机,切换与过程

1.进程调度的时机

进程调度(低级调度),就是按照某种算法从就绪队列中选择一个进程为其分配处理机。
在这里插入图片描述
在这里插入图片描述
进程在操作系统内核程序临界区不能进行调度与切换(√)
(2012年联考真题)进程处于临界区不能进行处理机调度(×)
临界资源:一个时间段内只允许一个进程使用的资源,各进程需要互斥地访问临界资源
临界区:访问临界资源的那段代码
内核程序临界区一般用来访问某种内核数据结构的,比如进程的就绪队列(由各种就绪进程的PCB组成)
在这里插入图片描述
在这里插入图片描述

2.进程的切换与过程

”狭义的进程调度“与”进程切换“的区别:
狭义的进程调度指的是从就绪队列中选中一个要运行的进程,(这个进程可以是刚刚被暂停执行的进程,也可能是另一个进程,后一种情况就需要进程切换
进程切换是指一个进程让出处理机,由另一个进程占用处理机的过程
广义的进程调度包含了选择一个进程和进程切换两个步骤
进程的切换过程主要完成了:
1.对原来运行进程的各种数据的保存
2.对新的进程各种数据的恢复
(如:程序计数器,程序状态字,各种数据寄存器等处理机现场信息,这些信息一般保存在进程控制块)
注意:进程的切换是有代价的,因此如果过于频繁的进行进程调度,切换,必然会使得整个系统的效率降低,使系统大部分时间都花在了进程切换上,而真正用于执行进程的时间减少

2.2.3 进程调度方式

非剥夺调度方式,又称为非抢占方式,即,只允许进程主动放弃处理机,在运行过程中即便有更紧迫的任务到达,当前进程依然会继续使用处理机,直到该进程终止或主动要求进入阻塞态。
在这里插入图片描述

剥夺调度方式,又称抢占方式,当一个进程正在处理机上执行时,如果有一个更重要或更紧迫的进程需要使用处理机,则立即暂停正在执行的进程,将处理机分配给更1重要紧迫的那个进程。
在这里插入图片描述
在这里插入图片描述

2.2.4 调度的基本准则

1.cpu利用率

由于早期的cpu造价极其昂贵,因此人们会希望让CPU尽可能多地工作
CPU利用率:指cpu“忙碌地时间占总时间的比例”。
利用率=忙碌的时间/总时间(有的体会还会要求计算某种设备的利用率)
在这里插入图片描述

2.系统吞吐量

对于计算机来说,希望能用尽可能少的时间处理完尽可能多的作业
系统吞吐量:单位时间内完成作业的数量
系统吞吐量:总共完成了多少道作业/总共花了多少时间
在这里插入图片描述

3.周转时间

对于计算机用户来说,他很关心自己的作业从提交到完成花了多少时间?
周转时间,是指从作业被提交给系统开始到作业被完成为止这段时间间隔
它包括四个部分:作业在外存后背队列上等待作业调度(高级调度)的时间,进程在就绪队列上等待进程调度(低级调度)的时间,进程在cpu上执行的时间,进程等待I/O操作完成的时间,后三项在一个作业的整个处理过程中,可能发生多次
(作业)周转时间=作业完成时间-作业提交时间
(对于用户来说,更关心自己的单个作业的周转时间)
平均周转时间=各作业周转时间之和/作业数
(对于操作系统来说,更关心系统的整体表现,因此更关心所有作业周转时间的平均值)
在这里插入图片描述

作业带权周转时间=作业周转时间/作业实际运行的时间= 作业完成时间-作业提交时间/作业实际运行的时间
带权周转时间必然>=1
带权周转时间与周转时间都是越小越好
平均带权周转时间=各作业带权周转时间之和/作业数

4.等待时间

计算机的用户希望自己的作业尽可能少的等待处理机
等待时间:指进程/作业处于等待处理机状态时间之和,等待时间越长,用户满意度越低
在这里插入图片描述
对于进程来说,等待时间就是指进程建立后等待被服务的时间之和,在等待I/O完成的期间其实进程也是在被服务的,所以不计入等待时间。
对于作业来说,不仅要考虑建立进程后的等待时间,还要加上作业在外存后背队列中等待的时间
一个作业总共需要被CPU服务多久,被i/O设备服务多久一般是确定不变的,因此调度算法其实只会影响作业/进程的等待时间,当前,与前面指标类似,也有“平均等待时间”来评价整体性能

5.响应时间

对于计算机用户来说,会希望自己的提交的要求(比如通过键盘输入了一个调式命令)尽早地开始被系统服务,回应
响应时间, 指从用户提交请求首次产生响应所用的时间
在这里插入图片描述

2.2.5 经典的调度算法

1.先来先服务(FCFS,first come first serve )

算法思想:主要从“公平”的角度考虑(类似于我们生活中排队买东西的例子)
算法规则:按照作业/程度到达的先后顺序进行服务
用于作业/进程调度:用于作业调度时,考虑的是哪个作业先到达后被队列,用于进度调度时,考虑的是哪个程度先达到就绪队列
是否可抢占? 非抢占式的算法
在这里插入图片描述
优缺点:
优点:公平,算法实现简单
缺点:排在长作业(进程)后面的短作业需要等待很长时间,带权周转时间很大,对短作业用户来说用户体验不好,即:FCFS算法对长作业有利, 有短作业不利
是否会导致饥饿某进程/作业长期得不到服务):不会

2.短作业优先(SJF,Shortest Job First)

算法思想:追求最小的平均等待时间,最少的平均周转时间,最少的平均带权周转时间
算法规则:最短的作业/进程优先得到服务(所谓“最短”,是指要求服务时间最短)
用于作业/进程调度 即可用于作业调度,也可用于进程调度,用于进程调度时称为“短进程优先算法(SPF,shortest Process First)算法 ”
是否可抢占? SPF和SJF时非抢占式的算法,但是也有抢占式的版本----最短剩余时间优先算法(SRTN)
在这里插入图片描述在这里插入图片描述

在这里插入图片描述
几点小细节:
在这里插入图片描述
优缺点:
优点:“最短的”平均等待时间,平均周转时间
缺点:不公平,对短作业有利,对长作业不利,可能会产生饥饿现象,另外,作业/进程的运行时间是由用户提供的,并不一定真实,不一定能做到真正的短作业优先
是否导致饥饿?会,如果源源不断地有短作业/进程到来,可能使长作业/进程长时间得不到服务,产生“饥饿”现象,如果一直得不到服务,则称为“饿死”

对于FCFS和SJF两种算法的思考
FCFS算法是在每次调度地时候选怎一个等待时间最长的作业(进程)为其服务,但是没有考虑到作业的运行时间,因此导致了对作业不友好地问题
SIF算法是选择一个执行时间最短地作业为其服务。但是又完全不考虑各个作业的等待时间,因此导致了对长作业不友好的问题,设置会导致饥饿问题
能不能设计一个算法,即考虑到各个作业的等待时间,也能兼顾运行时间呢?
人们提出了高响应比优先算法

3.高响应比优先(HRRN,Highest Response Ratio Next )

算法思想: 要综合考虑作业/进程的等待时间和要求服务的时间
算法规则: 在每次调度时先计算各个作业/进程的响应比,选择响应比最高的作业/进程为其服务
相应比 = 等待时间 + 要求服务时间/ 要求服务时间 相应比>=1
用于作业/进程调度 既可用于作业调度,也可以用于进程调度
受否可抢占? 非抢占式的算法,因此只有当前运行的作业/进程主动放弃处理机时,才需要调度,才需要计算响应比
在这里插入图片描述

优缺点:
综合考虑了等待时间和运行时间(要求服务时间)
等待时间相同时,要求服务时间短的优先(SJF的优点),
要求服务时间相同时,等待时间长的优先(FCFS的优点)
对于长作业来说,随着等待时间越来越久,其相应比也会越来越大,苍耳避免了长作业饥饿的问题
是否会导致饥饿 不会在这里插入图片描述
在这里插入图片描述

4 时间片轮转(RR,Round-Robin)

算法思想:
公平地,轮流地为各个进程服务,让每个进程在一定时间间隔内都可以得到响应
算法规则:
按照各进程到达就绪队列地顺序,轮流让各个进程执行一个时间片(如 100ms)。若进程未在一个时间片内执行完,则剥夺处理机,将进程重新放到就绪队列队尾重新排队
用于作业/进程调度 用于进程调度(只有作业放入内存建立了相应的进程后,才能被分配处理机时间片)
是否可抢占? 若进程未能在时间片内运行完,将被强行剥夺处理机使用权,因此时间片轮转调度算法属于抢占式的算法,由时钟装置发出时钟中断来通知CPU时间片已到
在这里插入图片描述

优缺点:
优点:公平 响应快:适用于分时操作系统
缺点:由于高频率的进程切换,因此有一定的开销,不区分任务的紧急程度
是否会导致饥饿? 不会
补充 时间片太大或者太小分别有什么影响?
在这里插入图片描述

5.优先级调度算法

算法思想: 随着计算机的发展,特别是实时操作系统的出现,越来越多的应用场景需要根据任务的紧急程度来决定处理顺序
算法规则: 每个作业/进程有各自的优先级,调度时选择优先级最高的作业/进程
用于作业/进程调度: 既可用于作业调度,也可用于进程调度,甚至,还会用于在之后的学习的I/O调度中
是否可抢占?抢占式,非抢占式都有。做题时的区别在于:非抢占式只需在进程主动放弃处理机时候进行调度即可,而抢占式还需在就绪队列变化时,检查是否会发生抢占
非抢占式:
在这里插入图片描述
抢占式:
在这里插入图片描述
补充:
就绪队列未必只有一个,可以按照不同优先级来组织,另外,也可以把优先级高的进程排在更靠近队头的1位置
根据优先级是否可以动态改变,可将优先级分为静态优先级动态性优先级两种
静态优先级:创建进程时确定,之后一直不变。
动态优先级:创建进程时有一个初始值,之后会根据情况动态的调正优先级

思考:如何合理的设置各类进程的优先级?
通常:
系统进程优先级高于用户进程
前台进程优先级高于后台进程
操作系统更偏好I/O型进程(或称I/O繁忙型进程)
注:与I/O型进程相对的是计算型进程(或称CPU繁忙型进程)(I/O设备可以并行工作 如果优先让I/O繁忙型进程有先运行的话,则越有可能让I/O设备尽早的投入工作,则资源利用率,系统吞吐量都会得到提升)
思考:如果采用的是动态优先级,什么时候应该调整?
可以从追求公平,提升资源利用率等角度考虑
如果某进程在就绪队列中等待了很长时间,则可以适当提升其优先级
如果某进程占用处理机运行了很长时间,则可以适当降低其优先级
优缺点: 优点:用优先级区分紧急程度,重要程度,适用于实时操作系统,可灵活的调整对各种作业/进程的偏好程度,
缺点:若源源不断的有高优先级进程到来,则可能导致饥饿
是否会导致饥饿: 会

6.多级反馈队列调度算法(融合了前几种算法的优点)

算法思想:对其他调度算法的折中权衡
算法规则:1.设置多级就绪队列,各级队列优先级由高到低,时间片从小到大
2.新进程到达时先进入第一级队列,按FCFS原则排队等待被分配时间片,若用完时间片进程还未结束,则进程进入下一级队列队尾。如果此时已经是在最下级的队列,则重新放回该队列队尾
3.只有第k级队列为空时,才会为k+1级队头的进程分配时间片
用于作业/进程调度: 用于进程调度
是否可抢占? 抢占式的算法,在k级队列的进程运行过程中,若更上级的队列(1—~k-1级)中进入了一个新进程,则由于新进程处于优先级更高的队列,因此新线程会抢占处理机,原来运行的进程放回k级队列队尾
在这里插入图片描述

优缺点:
对各类型进程都是公平(FCFS的优点),每个新到达的进程都可以很快的就得到响应(RR的优点),短进程只用很少的时间就可完成(SPF的优点);不必实现估计进程的运行时间(避免用户作假),可灵活的调整对各类进程的偏好程度,如果CPU密集型进程,I/O密集型进程(拓展:可以将因I/O而阻塞的过程重新放回原队列,这样I/O型进程就可以保持较高优先级)
是否会导致饥饿? 会
在这里插入图片描述
在这里插入图片描述

2.3 进程同步

2.3.1 进程同步的基本概念

1.进程同步的概念

知识点回顾:进程具有异步性的特征,异步性指的是,并发执行的进程以各自独立的,不可预知的速度向前推进
在这里插入图片描述
如何解决这种异步问题,就是“线程同步”需要解决的问题

同步亦称直接制约关系,它是指为完成某种任务而建立的两个或多个进程,这些进程因为需要在某些位置上协调他们的工作次序产生制约关系,进程间的直接制约关系就是源于他们之间的相互合作。

2.什么是进程互斥

进程的“并发”需要“共享”的支持。各个并发执行的进程不可避免的需要共享一些系统资源(比如内存,又比如打印机或者摄像头等I/O设备)
在这里插入图片描述
我们把一个时间段内只允许一个进程使用的资源称之为临界资源。许多物理设备(比如说,摄像头打印机)都属于临界资源,此外还有许多变量,数据,内存缓冲区都属于临界资源
对临界资源的访问,必须互斥的进行,互斥,亦称间接制约关系进程互斥的一个进程访问某临界资源时,另一个想要访问该临界资源的进程必须等待,当前访问临界资源的进程结束,释放该资源之后,另一个进程才能去访问临界资源。

对临界资源的互斥访问,可以在逻辑上分为如下四个部分:

在这里插入图片描述
注意:
临界区进程中访问临界资源的代码
进入区退出区负责实现互斥的代码段
临界区也可以称为“临界段”

为了实现对临界资源的互斥访问,同时保证系统整体性能,需要遵循以下原则:
1.空闲让进,临界区空闲时,可以允许一个请求进入临界区的进程立即进入临界区
2.忙则等待,当已有进程进入临界区时,其他试图进入临界区的进程必须等待
3.有限等待,对请求访问的进程,应保证能在有限时间内进入临界区(保证不会饥饿)
4.让权等待,当进程不能进入临界区时,应该立即释放处理机,防止进程忙等待
在这里插入图片描述

2.3.2 实现临界区互斥的基本方法

1.如果没有注意进程互斥?

在这里插入图片描述

2. 软件方式实现临界区互斥
1.单标志法:

算法思想:两个进程在访问完临界区后把使用临界区的权限转交给另一个进程,也就是说每一个进程进入临界区的资源只能被另一个进程赋予
在这里插入图片描述
因此这个算法可以实现“同一时刻最多只允许一个进程访问临界区”
只能按P0->P1->P0->P1 这样轮流访问,带来的问题是,如果此时允许访问的进程是P0,而P0一直不访问临界区,那么虽然此时临界区空闲,但是并不允许P1访问,
因此,单标志法存在的主要问题四:违背了“空闲让进“的原则。

2.双标志先检查法

算法思想:设置一个布尔型数组flag【】,数组中各个元素用来标记各进程想进入临界区的意愿,比如”flag【0】=ture“意味着0号进程P0现在想要进入临界区。每个进程在进入临界区之前先检查当前有没有别的进程想进入临界区,如果没有,则把自身对应的标志flag【i】设为true 之后开始访问临界区
在这里插入图片描述
双标志先检查法的主要问题是:违反了 ”忙则等待“的原则
原因在于,进入区的”检查“和”上锁“这两句话不是一气呵成的,”检查“后,”上锁“前可能发生进程切换

3.双标志后检查法

算法思想:双标志先检查法的改版,前一个算法的问题是先”检查“后”上锁“,但是这两个方法无法一气呵成,因此导致了这两个进程同时进入临界区的问题,人们又想到了先”上锁“后”检查“的方法,来避免上述问题
在这里插入图片描述
双标志后检查法虽然 解决了忙则等待的问题,但是 又违背了”空闲让进“和”有限等待“ 的原则,会因各进程都长期无法访问到临界资源而产生”饥饿“现象。
两个进程都争着进入临界区,但是谁也不让着谁,最后谁都无法进入临界区。

4.Peterson算法

算法思想:综合双标志法和单标志的思想,如果双方都想争着进入临界区,那可以让进程尝试”孔融让梨“(谦让)。做一个有礼貌的进程
在这里插入图片描述
Peterson算法用软件方法解决了进程互斥的问题**,遵循了空闲让进,忙则等待,有限等待三个原则**,但是依然未遵循让权等待的原则
在这里插入图片描述

3.硬件方式实现临界区互斥
1.中断屏蔽方法

利用”开/关中断指令“实现(与原语的实现思想不同,即在某进程开始访问临界区到结束访问为止都不允许被中断,也就不能发生进程切换,因此也不可能发生两个同时访问临界区的情况)
在这里插入图片描述
优点:简单高效
缺点:不适用于多处理机,只适用于操作系统内核进程,不适用于 用户进程(因为开中断/关中断指令只能运行在内核态,这组指令如果能让用户随意使用会很危险)

2.testAndSet指令

简称TS指令,有的地方也称为TestAndSetLock指令,或TSL指令
TSL指令是用硬件来实现的,执行的过程中是不允许被中断,只能一气呵成,以下是用c语言描述的逻辑
在这里插入图片描述
相比软件的实现方法,TSL指令把”上锁“和”检查“操作用硬件的方式变成了一气呵成的原子操作,
优点:实现简单,无需像软件实现那样严格检查是否有逻辑漏洞,适用于多处理机环境
缺点:不满足”让权等待“原则,暂时无法进入临界区的进程会占用cpu并循环执行TSL指令,从而导致”忙等“

3.Swap指令

有的地方也叫Exchange指令,或称为XCHG指令
Swap指令是用硬件实现的,执行的过程中不允许被中断,只能一气呵成,以下是用c语言实现的逻辑
在这里插入图片描述
优点:实现简单,无需向像软件那样严格检查是否会有逻辑漏洞,适用于多处理机环境
缺点:不满足让权等待原则,暂时无法进入临界区的进程会占用cpu的并循环执行TSL指令,从而导致”忙等“
在这里插入图片描述

2.3.3 信号量

1.信号量机制

用户进程可以通过使用操作系统提供的一对原语来对信号量进行操作,从而很方便的实现了进程互斥,进程同步
信号量其实就是一个变量(可以是一个整数,也可以是更复杂的记录型变量),可以用一个信号量来表示系统某些资源的数量,比如,系统中只有一台打印机,就可以设置一个初值为1的信号量
原语是一种比较特殊的程序但,其执行只能一气呵成,不可被中断,原语是由关中断/开中断指令实现的,软件解决方案的主要问题是由”进入区的各种操作无法一气呵成“,因此如果能把进入区,退出区的操作都用于”原语“实现,是这些操作能”一气呵成“就能避免问题
一对原语:wait(s)原语和signal(s)原语,可以把原语理解为我们自己所写的函数,函数名分别为wait和signal。括号里的信号量s其实就是函数调用时需要传入的一个参数
wait(s)signal(s)原语常简称为P,V操作,因此做题时通常把wait(s)signal(s)两个操作分别写为p(s) v(s)

2.整型信号量

用一个整数型的变量作为信号量,用来表示系统中某种资源的数量
(与普通整型的区别,对于信号量的操作只有三种,即初始化,p操作,v操作)
在这里插入图片描述

”检查“和”上锁“一气呵成,避免了并发,异步导致的问题
存在的问题,不满足”让权等待“原则,会发生”忙等“

3.记录型信号量

整形信号量的缺陷是存在”忙等”问题,因此人们提出了“记录型信号量”,即使用记录型数据结构表示信号量
在这里插入图片描述
考研题目中的wait(s),signal(s)可以记成P(s)V(s)
这对原语可用于实现系统资源的“申请”与“释放”
S.value的初值表示系统中某种资源的数目
对信号量S的一次p操作意味着进程请求一个单位的该类资源,因此需要执行S.value–,表示资源数减一,当s.value<0时表示该类资源已分配完毕,因此进程应调用block原语进行自我阻塞(当前运行的进程从运行态→阻塞态)主动放弃处理机,并插入该类资源的等待队列S.L中,可见,该机制遵循了“让权等待”原则,不会出现“忙等”现象
对信号量S的一次V操作意味着进程释放一个单位的该类资源,因此需要执行S.value++,表示资源数加1,若加一后仍是S.value<=0,表示依然有进程在等待该类资源,因此应调用wakeup原语唤醒等待队列中的第一个进程(被唤醒的进程从阻塞态->就绪态
在这里插入图片描述
注:若考试中出现P(S)V(S)的操作,除非特别说明,否则默认s为记录型信号量

4.信号量机制实现进程的互斥

1.分析并发过程的关键活动,划定临界区(如:对临界资源打印机的访问就应该放在临界区)
2.设置互斥信号量mutex,初值为1
(理解:信号量mutex表示“进入临界区的名额”)
在这里插入图片描述
3.在进入区P(mutex)—申请资源
4.在退出区V(mutex)----释放资源
注意:对于不同的临界资源,我们需要设置不同的互斥信号量
PV操作必须成对出现,缺少P(mutex)操作就不能保证临界资源的互斥访问,缺少V(mutex)会导致资源永不被释放,等待进程永不被唤醒
在这里插入图片描述

5.使用信号量机制实现进程同步

进程同步:要让各并发进程按要求有序地推进
用信号量实现进程同步:
1.分析什么地方需要实现“同步关系”,即必须保证 ** “一前一后 ” **执行的两个操作(或两句代码)
2.设置同步信号量s,初始为0
3.在“前操作”之后执行V(S)
4.在“后操作”之前执行P(S)
在这里插入图片描述

6.信号量机制实现前驱关系

在这里插入图片描述
在这里插入图片描述

2.3.4 管程

1.为什么要引入管程?

信号量机制存在的问题:编写程序困难,易出错
在这里插入图片描述
能不能设计一种机制,让程序员写程序时不需要再关注复杂复杂的pv操作,让写代码更加轻松呢?
1973年,brinch hansen首次在程序设计语言(Pascal)中引入了“管程”成分–一种高级同步机制

2.管程的定义和基本特征

管程是一种特殊的软件模块,有这些部分组成:
1.局部于管程的共享数据结构说明
2.对该数据结构进行操作的一组过程
3.对局部于管程的共享数据设置初始语句
4.每个管程都有一个名字

管程的基本特征
1.局部于管程的数据只能被局限于管程的过程所访问
2.一个进程只能通过调用管程内的过程才能进入管程访问共享数据
3.每次进允许一个进程在管程内执行某个内部过程

拓展1:用管程解决生产者消费者问题

在这里插入图片描述
由编译器负责实现各进程互斥地进入莞城中的过程
莞城中设置条件变量和等待/唤醒操作,以解决同步问题

引入管程的目的无非就是要更方便的实现进程的互斥和同步
1.需要在管程中定义共享数据(如生产者消费者问题的缓冲区)
2.需要在管程中定义用于访问这些共享数据的“入口”—其实就是一些函数(如生产者消费者问题中,可以定义一个函数可以用于将产品放入缓冲区,再定义一个函数用于从缓冲区中取出商品)
3.只有通过这些特定的“入口”才能访问共享数据
4.管程中有许多入口,但是每次只能开放其中一个 入口,并且只能让一个进程或线程进入(如生产者消费者问题中,各进程需要互斥的访问共享缓冲区,管程的这种特性即可保证一个时间段内最多只能有一个进程在访问缓冲区,注意:这种互斥特性是由编译器负责实现的,程序员不需要关心
5.可在管程中设置条件变量及等待/唤醒操作以解决同步问题,可以让一个进程或者线程在条件变量上等待(此时,该进程应先释放管程的使用权,也可以是让出口)可以通过唤醒操作将等待在变量条件上的进程或线程唤醒
程序员可以用某种特殊的语法定义一个管程,之后其他程序员就可以使用这个管程提供的特定“入口”很方便的使用进程同步/互斥了
这就是“封装”思想

拓展2:java中类似管程的机制

java中,如果用关键字synchronized来描述一个函数,那么这个函数同一时间段内只能被一个线程调用
在这里插入图片描述
在这里插入图片描述

2.3.5 经典同步问题

1.生产者消费者问题

问题描述:
系统中有一组生产者进程和一组消费者进程。生产者进程每次生产一个产品放入缓冲区,消费者进程每次从缓冲区中取出一个产品并使用(注:这里的“产品”理解为某种数据)
生产者,消费者进程共享一个初始为空,大小为n的缓冲区
只有缓冲区没有满的时候,生产者才能把产品放入缓冲区,否则必须等待(缓冲区没满→生产者生产)
只有缓冲区不空时,消费者才能从中取出产品,否则必须等待(缓冲区没空→消费者消费)
缓冲区是一种临界资源,各个进程必须互斥的访问(互斥关系)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
PV操作题目的分析步骤
1.关系分析,找出题目中描述的各个进程,分析他们之间的同步,互斥关系
2.整理思路,根据各进程的操作流程确定p,v操作的大致顺序
3.设置信号量,并根据题目条件确定信号量初值(互斥信号量初值一般为1,同步信号量的初始值要看对应的初始值是多少)
在这里插入图片描述
在这里插入图片描述
思考:能否改变相领pv操作的顺序
在这里插入图片描述
因此,实现互斥的p操作一定在实现同步的p操作之后。
v操作不会导致进程阻塞,因此两个v操作顺序可以交换
在这里插入图片描述

2.多生产者—多消费者问题

问题描述:
在这里插入图片描述
问题分析
1.关系分析,找出题目中描述的各个进程,分析他们之间的同步互斥关系
在这里插入图片描述
2.整理思路。按照各进程的操作流程确定P,V操作的大致顺序
在这里插入图片描述
3.设置信号量,设置需要的信号量,并根据题目条件确定信号量初值。(互斥信号量初值一般为1,同步信号量的初始值要看对应资源的初始值是多少)
在这里插入图片描述

如何实现:
在这里插入图片描述
如果不用互斥变量能否完成互斥的操作?
结论:即使不设置专门的互斥变量mutex,也不会出现多个进程同时访问盘子的现象
原因在于:本题中的缓冲区的大小为1,在任何时刻,apple,orange plate三个同步信号量中最多只有一个进程的p操作不会被堵塞,并顺利的进入临界区
如果盘子的数量被设置为2,会出现信息覆盖的情况
因此,如果缓冲区大小大于1,就必须专门设置一个互斥信号mutex来保证互斥的访问缓冲区
在这里插入图片描述

3.吸烟者问题

问题描述
在这里插入图片描述
问题分析:
1.关系分析。找出题目中描述的各个进程,分析他们之间的同步,互斥关系
在这里插入图片描述
2.整理思路,根据各进程的操作流程确定p,v操作的大致顺序
pv的操作顺序:“前v后p”
3.设置信号量,设置需要的信号量,并根据题目条件确定信号量初值。(互斥信号量初值一般为1,同步信号量的初始值要看对应资源的初始值是多少)
在这里插入图片描述
如何实现
在这里插入图片描述
在这里插入图片描述

4.读者-写者问题

问题描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
问题分析
1.关系分析。找出题目中描述的各个进程,分析他们之间的同步,互斥关系
2.整理思路,根据各进程的操作流程确定p,v操作的大致顺序
pv的操作顺序:“前v后p”
3.设置信号量,设置需要的信号量,并根据题目条件确定信号量初值。(互斥信号量初值一般为1,同步信号量的初始值要看对应资源的初始值是多少)
两类进程:写进程,写进程
互斥关系:写进程-写进程 写进程-读进程 读进程与读进程之间不存在互斥问题
如何实现?
在这里插入图片描述
在这里插入图片描述
结论:在这种算法中,连续进入的多个读者可以同时读文件:写者和其他进程不能同时访问文件,写者不会饥饿,但也并不是真正的”写优先“,而是相对公平的先来先服务原则
有的书上把这种算法称为”读写公平法“
在这里插入图片描述

5.哲学家进餐问题

问题描述:
在这里插入图片描述
问题分析
1.关系分析:系统中有5个哲学家进程,5个哲学家与左右邻居对其中间筷子的访问都是互斥关系
2.整理思路:这个问题中只有互斥关系,但与之前遇到的问题不同的是,每个哲学家进程需要同时持有两个临界资源才能开始吃饭,如何避免临界资源分配不当造成的死锁问题,是哲学家问题的精髓
3.信号量设置,定义互斥信号量数组chopstick【5】={1,1,1,1,1}用于实现对5个筷子的互斥访问。并对哲学家按0·4编号,哲学家i左边的筷子编号为i,右边的筷子编号为(i+1)%5
在这里插入图片描述
如何防止死锁情况的发生?
1.可以对哲学家进程施加一些限制条件,比如最多允许四个哲学家同时进餐,这样可以保证至少有一个哲学家是可以拿到左右两个侉子的
2.要求奇数号哲学家先拿左边的筷子,然后再拿右边的筷子,而偶数号哲学家刚好相反,用这种凡是可以保证如果相邻的两个奇偶号哲学家都想吃饭,那么只会有其中一个可以拿起第一支筷子,另一个直接堵塞,这就是避免了占有一支后再等待另一只的情况
3.仅当一个哲学家左右筷子都可以使用时候,才允许他抓起筷子
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.4 死锁

2.4.1 死锁的概念

1.死锁的概念

在这里插入图片描述
在并发环境下,各进程因竞争资源而造成的一种互相等待对方手里的资源,导致各进程都阻塞,都无法向前推进的现象,就是“死锁”,发生死锁后若无外力干涉,这些进程都无法向前推进。

2.死锁,饥饿,死循环的区别

死锁:各进程互相等待对方的资源,导致各进程都堵塞,无法向前推进的现象
饥饿:由于长期得不到想要的资源,某进程无法向前推进的现象,比如,在短进程预先(SPF)算法中,若有源源不断地短进程到来,则长进程将一直得不到处理机,从而发生长进程“饥饿”
死循环:某进程执行中一直挑不出某个循环地现象,有时是因为程序逻辑bug导致的,有时是因为程序员故意设计的
在这里插入图片描述

3.死锁产生的必要条件

产生死锁必须同时满足以下四个条件,只要其中任一条件不成立,死锁就不会发生
互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁(如哲学家的筷子,打印机设备),像内存,扬声器这样可以同时让多个进程使用的资源不会导致死锁的(因为进程不会阻塞等待这种资源)
不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放
请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他的进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放
循环等待条件:存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求
注意!发生死锁时一定有循环等待,但是发生循环等待时未必发生死锁(循环等待是死锁的充分不必要条件)
如果同类资源数大于1,则即使有循环等待,也未必发生死锁,但如果系统中的每类资源都只有一个,那么循环等待就是死锁的充分必要条件了

4.什么时候会发生死锁

1.对系统资源的竞争,各进程不可剥夺的资源(如打印机)的竞争可能引起死锁,对可剥夺的资源(cpu)的竞争是不会引起死锁的
2.进程推进顺序非法。请求和释放资源的顺序不当。也同样会造成死锁,例如,并发执行的进程P1,P2分别申请并占有了资源R1,R2,之后进程P1又紧接着申请了资源R2,而进程P2又申请了资源R1,两者会因为申请的资源被对方占有而堵塞,从而发生死锁。
3.信号量使用不当时候,也会发生死锁。如生产者-消费者问题中,如果实现互斥的P操作在实现同步的p操作之前,就有可能导致死锁。(可以把互斥信号量,同步信号量也可以看作一种抽象的系统资源)
总之,对不可剥夺资源分配不合理的时候,容易发生死锁。

2.4.2 死锁的处理策略

1.预防死锁,破坏死锁的产生的四个必要条件中的一个或几个
2.避免死锁,用某种方式防止系统进入不安全状态,从而避免死锁(银行家算法)
3.死锁的检测和解除。允许死锁的发生,不过操作系统会负责检测出死锁的发生,然后采用某种措施解除死锁
在这里插入图片描述

2.4.3 死锁预防

1.破坏互斥条件

互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁。
如果把只能互斥使用的资源改造为允许共享使用,则系统不会进入死锁状态,比如:SPOOling技术,操作系统可以采用SPOOling技术把独占设备在逻辑上改造为共享设备,比如,用SPOOling技术将打印机改造为共享设备
在这里插入图片描述
该策略缺点:并不是所有的资源都可以改造成可共享使用的资源。并且为了系统安全,很多地方必须保护这种互斥性,因此,很多时候都无法破坏互斥条件

2.破坏不剥夺条件

不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放
破坏不剥夺条件:
方案一:当某个进程请求新的资源而得不到满足的时候,他必须释放保持的所有资源,待以后需要时再重新申请。也就是说,即使某种资源尚未使用完,也需要主动释放,从而破坏了不可剥夺条件
方案二:当某个进程需要的资源被其他进程所占有的时候,可以由操作系统协助,将想要的资源强行剥夺。这种方式一般需要考虑各进程的优先级(比如:剥夺调度方式,就是将处理机资源强行剥夺给优先级更高的进程使用)
该策略的缺点:
1.实现起来比较复杂
2.释放已获得的资源可能造成前一阶段工作的失效。因此这种一般适用于易保存和恢复状态的资源,如CPU
3.反复的申请和释放资源会增加系统的开销,降低系统的吞吐量
4.若采用方案一,意味着只要发生暂时得不到某个资源,之前获得的那些资源都需要放弃,以后再重新申请,如果一直发生这样的情况,就会导致进程饥饿

3.破坏请求和保持条件

请求和保持条件:进程已经保持了至少一个资源,但又提出了一个新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放
可以采用静态分配方式, 即进程在进一次申请完它所需要的全部资源,在它的资源未满足前,不让他投入运行。一旦投入运行后,这些资源就一直归他所有,该进程就不会再请求别的任何资源了。
该策略实现起来简单,但也有明显的缺点:
有些资源可能只有很短的时间,因此如果进程的整个运行期间都一直保持着所有的资源,就会造成严重的资源浪费,资源利用率极低,另外,该策略也可能导致某些进程饥饿

4.破坏循环等待条件

循环等待条件存在一种资源的循环等待链,链中的每一个进程都已获得的资源同时被下一个进程所请求。
可采用顺序资源分配法,首先先给系统中的资源编号 ,规定每个进程必须按编号递增的顺序请求资源,同类资源(即编号相同的资源)一次申请完
原理分析:一个进程只有已占有小编号的资源时,才有资格申请更大编号的资源,按此规则,已持有大编号资源的进程不可能逆向申请小编号的资源,从而就不会产生循环等待的现象
在这里插入图片描述
该策略的缺点:
1.不方便增加新的设备,因为可能需要重新分配所有的编号
2.进程实际使用资源的顺序可能和编号递增顺序不一致,会导致资源的浪费
3.必须按规定次序申请资源,用户编程麻烦
在这里插入图片描述

2.4.4 死锁避免

1.什么是安全序列

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.安全序列,不完全状态,死锁的状态

在这里插入图片描述
所谓安全序列,就是指如果系统按照这种序列分配资源,则每个进程都能顺利完成。只要能找出一个安全序列,系统就是安全状态,当然,安全序列可能有多个
如果分配了资源之后,系统中找不出任何一个安全序列,系统就进入了不安全状态,这就意味着之后可能所有进程都无法顺利的执行下去,当然,如果有进程提前归还了一些资源,那系统也有可能重新回到安全状态,不过我们在分配资源之前总是要考虑到最坏的情况
如果系统处于安全状态,就一定不会发生死锁(处于不安全状态未必就是发生了死锁,但是发生死锁是一定是在不安全状态)
因此可以在资源分配之前预先判断这次分配是否会导致系统进入不安全状态,以此决定是否答应资源分配请求,这也是“银行家算法”的核心思想

3.银行家算法

银行家算法是荷兰学者Dijkstra为银行系统设计的,以确保银行中在发放现金贷款时,不会发生不能满足所有客户需要的情况,后来这种算法被用于操作系统中,用于避免死锁
核心思想:在进程提出资源申请时,先预判此次分配是否会导致系统进入不安全状态,如果会进入不安全状态,就暂时不答应这次请求,让该进程先阻塞等待
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.4.5 死锁的检测和解除

如果系统中既不采取预防死锁的方法,又不采取避免死锁的方法,系统就很有可能发生死锁,在这种情况下,系统应当提供两个算法:
①死锁检测算法:用于检测系统状态,以确定系统中是否发生了死锁
②死锁解除算法:当认定系统中已经发生了死锁,利用该算法可将系统从死锁状态中解脱出来

1.死锁的检测

为了能对系统是否已经发生了死锁进行检测,必须:
①用某种数据结构来保持资源的请求和分配信息
②提供一种算法,利用上述的信息来检测系统是否已经进入了死锁状态
在这里插入图片描述
如果系统中的剩余的可用资源数能够满足进程的要求,那么这个进程暂时时不会堵塞的,可以顺利的执行下去
如果这个进程执行结束了把资源归还给系统,就可能使某些正在等待资源的进程被激活,并顺利的执行下去。
相应地,这些被激活的进程执行完之后又会归还一些资源,这样可能又会激活另外一些阻塞的进程
如果按照以上的说法,最终可以消除所有边,就称这个图是可完全简化的,此时一定没有发生死锁(相当于能找到一个安全序列)
如果最终不能消除所有边,那么此时就是发生了死锁
最终还连着边的那些情况就是发生死锁状态的进程
在这里插入图片描述
死锁定理:如果某时时刻系统的资源分配图是不可被完全简化的,那么此时系统死锁

2.死锁的解除

一旦检测出死锁的发生,就应该立即解除死锁
补充:并不是系统中所有进程都处于死锁状态,用死锁检测算法化简资源分配图后,还连着边的那些进程就是死锁进程
解除死锁的主要方法有:
1.资源剥夺法,挂起(暂时放到外存上)某些死锁进程,并强占它的资源,将这些资源分配给其他的死锁进程,但是应防止被挂起的进程长时间得不到资源而导致饥饿
2.撤销进程法(或称终止进程法) 强制撤销部分,甚至全部死锁进程,并剥夺这些进程的资源,这些方式的优点是实现简单,但所付出的代价可能会很大,因为有些进程可能已经运行了很长时间,已经接近结束了,一旦被终止就会功亏一篑,以后的从头再来。
3.进程回退法:让一个或多个死锁进程回退到足以避免死锁的地步。这就要求系统要记录进程的历史信息,设置还原点
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第三章 内存管理

1.什么是内存?内存有什么作用

内存可存放数据,程序执行前需要先放到内存中才能被CPU处理----缓和CPU和磁盘之间的速度矛盾
在这里插入图片描述

2.补充知识:几个常用的数量单位

在这里插入图片描述

3.知识滚雪球:指令的工作原理

指令的工作基于“地址”,每个地址对应一个数据的存储单元
在这里插入图片描述
可见,我们写的代码要翻译成CPU能识别的指令,这些指令会告诉CPU应该去内存的哪个地址读/写数据,这个数据应该做怎么样的处理。在这个例子中,我们默认让这个进程的相关内容从地址#0开始连续存放,指令中的地址参数直接给出了变量x的实际存放位置(物理地址
思考:如果这个进程不是从地址#0开始存放的,会影响指令的正常运行吗?
在这里插入图片描述
在这里插入图片描述
问题:如何将指令中的逻辑地址转换为物理地址?
策略:三种转入方式
1.绝对装入
2.可重定位装入(静态重定位)
3.动态运行时装入(动态重定位)

4.从写程序到程序运行

在这里插入图片描述
编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言
连接:由连接程序将编译后形成的一组目标模块,以及所需库函数连接在一起,形成一个完整的装入模块
装入(装载):由装入程序将装入程序装入内存运行
连接的三种方式:
1.静态连接:在程序运行之前,先将各目标模块及他们所需的库函数连接成一个完整的可执行文件(转入模块),之后不再拆开。
2.装入时动态连接:将各目标模块装入内存时,边装入边连接的连接方式
3.运行时动态链接:在程序执行中需要该目标模块时,才对它进行连接,其优点是便于修改和更新,便于实现对目标模块的共享

3.1 内存管理概念

3.1.1 内存管理的基本原理和要求

1.内存空间的分配与回收

操作系统作为系统资源的管理者,当然也需要对内存进行管理,要管什么呢?
在这里插入图片描述
1.操作系统负责内存空间的分配与回收
2.操作系统需要提供某种技术从逻辑上对内存空间进行扩充
3.操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换
为了使编程更方便,程序员在编写程序时只需要关注到指令,数据的逻辑地址,而逻辑地址到物理地址的转换(这个过程称为地址重定位)应该由操作系统负责,这样就保证了程序员写程序时不需要关注物理内存的实际情况
在这里插入图片描述
4.操作系统需要提供内存保护功能,保证各功能在各自存储空间运行,互不干扰

问题:如何将指令中的逻辑地址转换为物理地址?
策略:三种转入方式
1.绝对装入
2.可重定位装入(静态重定位)
3.动态运行时装入(动态重定位)

2.三种装入方式
(1)绝对装入

绝对装入:在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码,装入程序按照装入模块中的地址,将程序和数据装入内存
Eg:如果知道装入模块要从地址为100的地方开始存放
编译,连接后得到的装入模块的指令直接使用了绝对地址
在这里插入图片描述
绝对接入只适用于单道程序环境

(2)可重定位装入(静态重定位)

静态重定位又称可重定位装入,编译,连接后的转入模块的地址都是从0开始的,指令中使用的地址,数据存放的地址都是相对于起始地址而言的逻辑地址,可根据内存的当前情况,将装入模块装入到内存的适当位置,装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)
在这里插入图片描述
静态重定位的特点是在一个作业装入内存时,必须分配按要求的全部内存空间,如果没有分配足够的内存,就不能装入改作业
作业一旦进入内存后,在运行期间时不可以再移动,也不能再申请内存空间

(3)动态运行时装入(动态重定位)

动态重定位:又称动态运行时装入。编译,连接后的装入模块的地址都是从0开始的,装入程序吧装入模块装入内存后,并不会立即把逻辑地址转化为物理地址,而是把地址转换推迟到程序真正要执行的时候才运行,因此装入内存后所有的地址依然是逻辑地址,这种方式需要一个重定位寄存器的支持
在这里插入图片描述
采用动态重定位时允许程序在内存中发生移动
在这里插入图片描述在这里插入图片描述

3.三种连接方式

连接的三种方式:

(1)静态链接

1.静态连接:在程序运行之前,先将各目标模块及他们所需的库函数连接成一个完整的可执行文件(转入模块),之后不再拆开。

(2)装入时动态链接

2.装入时动态连接:将各目标模块装入内存时,边装入边连接的连接方式

(3)运行时动态链接

3.运行时动态链接:在程序执行中需要该目标模块时,才对它进行连接,其优点是便于修改和更新,便于实现对目标模块的共享

4.内存保护

在这里插入图片描述
内存保护可以采用以下两个方式:
方式一:在CPU中设置一堆上限下限寄存器,存放进程的上下限地址。进程的指令要访问某个地址时,cpu检查是否越界
在这里插入图片描述
方法二:采用重定位寄存器(又称基址寄存器和界地址寄存器(又称为限长寄存器)进行越界检查,重定位寄存器中存放的是进程的起始物理地址,界地址寄存器中存放的是进程的最大逻辑地址
在这里插入图片描述

3.1.2 覆盖与交换

1.覆盖

早期的计算机内存很小,比如IBM推出的第一台PC机最大只支持1MB的内存,因此经常出现内存大小不够用的情况
后来人们引入了覆盖技术,用来解决“程序大小超过物理内存总和”的问题
在这里插入图片描述
覆盖技术的思想,将程序分为多个段(多个模块),常用的段常驻内存,不常用的段在需要时调入内存
内存中分为一个“固定区”若干个”覆盖区“
需要常驻内存的段放在”固定区“中,调入后就不再调出(除非运行结束)
不常用的段落放在”覆盖区“,需要用到时调入内存,到不到时调出内存
·在这里插入图片描述
必须由程序员声明覆盖结构,操作系统完成自动覆盖,缺点:对用户不透明,增加了用户编程负担
覆盖技术只用于早期的操作系统中,现在已经成了历史

2.交换

交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已经具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)
在这里插入图片描述
中级调度(内存调度):就是要决定将哪个处于挂起状态的进程重新调入内存
交换(对换)技术的设计思想:内存空间紧张时,系统将内存中的某些进程暂时换出外存,把外存中某些已具备运行状态的进程换入内存(进程在内存与磁盘间动态调度)
暂时换出外存等待的进程状态为挂起状态(挂起态:suspend)
挂起态又可以进一步细分为就绪挂起堵塞挂起两种状态
在这里插入图片描述
1.应该在外存(磁盘)的什么位置保存在被换出的进程?
2.什么时候应该交换?
3.应该换出哪些进程?
在这里插入图片描述

在这里插入图片描述

3.1.3 连续分配管理方式

连续分配:指的是为用户进程分配的必须是一个连续的内存空间

1.单一连续分配

在单一分配方式中,内存被分为系统区用户区
系统区通常位于内存的低地址部分,用于存放操作系统相关数据:用户区用于存放用户进程相关数据
内存中只能有一道用户程序,用户程序独占整个用户区空间
在这里插入图片描述

优点:实现简单,无外部碎片,可以采用覆盖技术扩充内存,不一定需要采用内存保护(eg:早期的PC操作系统MS-DOS)
缺点:只能利用于单用户,单任务的操作系统中,有内部碎片,存储器利用率较低
分配给某进程的内存区域中,如果有些部分没有用上,就是“内部碎片”

2.固定分区分配

20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会互相干扰,于是整个用户空间划分为若干个固定大小的分区,在每个分区只能装入一道作业,这样就形成了最早的最简单的一种多道程序的内存管理方法
固定分区分配:分区大小相等 分区大小不等
在这里插入图片描述
分区大小相等,缺乏灵活性,但是很适合用于一台计算机控制多个相同对象的场合(比如:钢铁厂有n个相同的炼钢炉,就可把内存为n个大小相等的区域存放n个炼钢炉控制程序)
分区大小相等,增加了灵活性,可以满足不同大小的进程要求,根据常在系统中运行的作业大小情况进行划分,(比如:划分多个小分区,适量中等分区,少量大分区)
操作系统需要建立一个数据结构----分区说明表,来实现各个分区的分配与回收,每个表项对应着一个分区,或者按分区大小排列。每个表项包括对应分区的大小,起始地址,状态(是否已经被分配)
在这里插入图片描述
当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的,未分配的分区,将之分配给该程序,然后修改状态为“已分配”
优点:实现简单,无外部碎片
缺点:a.当用户程序太大时,可能所有的分区都不能满足要求,此时不得不采用覆盖技术来解决,但这又会降低性能,b…会产生内部碎片,内存利用率低

3.动态分区分配

动态分区分配又称为可变分区分配,这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要,因此系统分区的大小和数目是可变的,(eg.假设某计算机内存大小为64MB,系统去8MB,用户区共56MB…)
1.系统要用什么样的数据结构记录内存的使用情况?
两种常用的数据结构:空闲分区表 空闲分区链
在这里插入图片描述

2.当很多个空闲分区都能满足要求时,应该选择哪个分区进行分配?
把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业,由于分配算法对系统能有很大的影响,因此人们对它进行了广泛的研究
下个小节会介绍四种动态分区分配算法
3.如何进行分区的分配与回收操作?
如何分配?在这里插入图片描述
在这里插入图片描述
如何回收?
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
注:各表项的顺序不一定按照地址递增顺序排序,具体的排序方式需要依据动态分区分配算法来确定

动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区, 并使分区的大小正好适合进程的需要,因此系统分区的大小和数目是可变的。
动态分区分配没有内部碎片,但是有外部碎片
内部碎片,分配给某进程的内存区域中,如果有些部分没有用上
外部碎片,是指内存中的某些空闲分区由于太小而难以利用
如果内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间,因此这些碎片不能满足进程的需求
可以通过**紧凑(拼凑,compaction)**技术来解决外部碎片
1.会议交换技术,什么是换入/换出?什么是中级调度(内存调度)?
2.思考动态分区分配应使用哪种装入方式?”紧凑“之后需要做什么处理?
在这里插入图片描述

4.动态分区分配算法

动态分区分配算法: 在动态分区分配方式中,当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?

(1)首次适应算法(First Fit)

算法思想: 每次都从低地址开始查找,找到第一个能满足大小的空闲分区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找 空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
在这里插入图片描述

(2)最佳适应算法(Best Fit)

算法思想: 由于动态分区分配是一种连续分配方式,为各进程分配空间必须得是连续的一整片区域,因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片地空闲区,即,优先使用更小的空闲区
如何实现: 空闲分区按容量递增次序链接,每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区
在这里插入图片描述
缺点:每次都选最小的分区进行分配,会留下越来越多的,很小的,难以利用的内容块,因此这种方法会产生很多的外部碎片

(3)最坏适应算法(Worst Fit)

又称最大适应算法(Langest Fit)
算法思想: 为了解决最佳适应算法的问题----即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便利用。
如何实现: 空闲分区按容量递减次序链接,每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足需求的第一个空闲分区
在这里插入图片描述
缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完,如果之后有“大进程”达到,就没有内存分区可用了。

(4)邻近适应算法(Next Fit)

算法思想: 首次适应算法思想每次都从链头开始查找的,这可能导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销,如果每次都从上次查找结束的位置开始检索,就能解决上述的问题。
如何实现: 空闲分区以地址递增的顺序排列(可排列一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲区域链,(或空闲区域表),找到大小能满足要求的第一个空闲分区
在这里插入图片描述
首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更可能用到低地址部分的小分区,也会有可能把高地址部分的大分区保留下来(最佳适应算法的优点)
邻近适应算法的规则可能会导致无论低地址高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点)
综合来看,首次适应算法才是最好的
在这里插入图片描述

2.1.4 非连续分配管理方式

1.基本分页存储管理的基本概念

连续分配:为用户进程分配的必须得是一个连续的内存空间
非连续分配:为用户进程分配的可以时是一些分散的内存空间

2.问题一:什么是分页存储?

将内存空间分配一个一个大小相同的分区(比如:每个分区4KB),每个分区就是一个“页框”(页框=页帧=内存块=物理块=物理界面)。每一个页框有一个编号,即“页框号”(页框=页帧=内存块=物理块=物理界面),页框号从0开始在这里插入图片描述
进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个“页”或者“页面”,每个页面也有一个编号,即“页号”,页号也是从0开始
在这里插入图片描述
tips:初学易混----页,页面(进程)vs页框,页帧,物理页(内存)
页面,页面号(进程)vs页框号,页帧号,物理页号(内存)
操作系统以页框为单位为各个进程分配内存空间,进程的每个页面分别放入一个页框内,也就是说,进程的页面与内存的页框有一一对应的关系
各个页面不需连续存放,可以放在不相邻的各个页框中

3.重要的数据结构----页表

为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表
注:页表通常存在PCB(进程控制块)中
在这里插入图片描述

1.一个进程对应一个页表
2.进程的每个页面都对应着一个页表项
3.每个页表项由“页号”和块号组成
4.页表记录进程页面和实际存放的内存块之间的映射关系
⭐⭐⭐重点考点
在这里插入图片描述

页号占多少内存空间?
页表项连续存放,因此页号可以被隐含的,不占存储空间(类比数组)
注意:页表记录的只是内存快号,而不是内存块的起始地址!j号内存块的起始地址=j×内存块大小

4.问题二:如何实现地址的转换

将地址地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换?
特点:虽然进程的各个页面是离散存放的,但是页面内部是连续存放的
如果想访问逻辑地址A,则:
①确定逻辑地址A对应的页号P
②找到P号页面在内存中的起始地址(需要查页表)
③确定逻辑地址A的“页内偏移量”W
逻辑地址A对应的物理地址 =P号页面在内存中的起始地址+页内偏移量W

5.子问题:如何确定一个逻辑地址对应的页号,页内偏移量?

Eg:在某计算机系统中,页面的大小为50B,某进程逻辑地址空间大小为200B,则逻辑地址110对应的页号,页内偏移量是多少?
如何计算?
页号=逻辑地址/页面长度(取除法的整数部分)
页内偏移量 = 逻辑地址%页面长度(取除法的取余部分)
页号 =110/50=2
页面偏移量 = 110 % 50 = 10
逻辑地址可以拆分为(页号,页内偏移量)
页面在内存中的起始地址+页内偏移量=实际的物理地址
在这里插入图片描述
在这里插入图片描述
结论: 如果每个页面大小为2^kB,用二进制数表示逻辑地址,则末尾k位即为页内偏移量,其余部分就是页号
在这里插入图片描述
结论:如果页面大小刚好为2的整数幂,则只需要把页表中记录的物理块号拼接上页内偏移量就能得到对应的物理地址
以上为页面大小正好为2的整数幂的好处

6.逻辑地址结构

分页管理管理的逻辑地址结构如下图所示:
在这里插入图片描述
地址结构包含两个部分,一部分为页号,后一部分为页内偏移量W,在上图所示的例子中,地址长度为32位,其中0-11位位“页内偏移量”,或称页内地址,12-31位为页号
如果有k位表示“页内偏移量”,则说明该系统中一个页面的大小为2^k个内存单元
如果有M位表示“页号”,则说明该系统中,一个进程最多允许有2^M个页面
⭐⭐⭐ 页面大小←→页内偏移量位数→逻辑地址结构
在这里插入图片描述
在这里插入图片描述

(1)基本地址变换机构

重点理解,记忆基本地址变换机构(用于实现逻辑地址到物理地址转换的一组硬件机构)的原理和流程
基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址
通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F页表长度M
进程位执行时,页表的起始地址F页表长度M被放在进程控制块(PCB) 中,当进程被调度时,操作系统内核会把他们放到页表寄存器
注意:页面大小是2的整数幂
设页面大小为L,逻辑地址A到物理地址E的变化过程如下

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
例题:
在这里插入图片描述
在分页储存管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了,因此,页式管理中地址是一维的。即,只要给出一个逻辑地址,系统就可以自动地算出页号,页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少

(2)对于页表大小的进一步探讨

每一个页表项的长度是相同的,页号是“隐含”的
在这里插入图片描述
在这里插入图片描述

(3)具有快表的地址变机构

具有快表的地址变换机构是基本地址变换机构改进版本

1.什么是快表?(TLB)

快表,又称联想寄存器(TLB,translation lookaside buffer),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加速地址转换的速度,与此对应,内存中的页表常称为慢表
在这里插入图片描述
思考:能不能把整个页表都放在TLB中?
在这里插入图片描述

2.引入快表后,地址的变换过程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.局部性原理

在这里插入图片描述
在这里插入图片描述
时间局部性: 如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行,如果某个数据被访问过,不久之后该数据很可能再次被访问(因为程序中存在大量的循环)
空间局部性: 一旦程序访问了某个局部单元,在不久之后,其附近的存储单元也很有可能被访问,(因为很多数据在内存中网都是连续存放的)
上个小节介绍的基本地址变换机构中,每次访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查到的表都是同一个页表项
在这里插入图片描述
TLB和普通cache的区别—TLB中只有页表项的副本,而普通Cache中可能会有其他各种数据的副本

(4)两级页表
1.单机页表存在的问题

根据页号查询页表的方法:K号页对应的页表项存放位置=页表起始地址 + k*字节位
要在所有的页表项都连续存放的基础上才能用这种方法找到页表项
根据局部性原理可知,很多时候,进程在一段时间内只需要访问某几个界面中就可以正常运行,因此没有必要让整个页表都常驻内存

2.如何解决单机页表的问题?

问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框
问题二:没有必要让整个页表常驻内存,因此进程在一段时间内可能发只需要访问某几个特定的页面
可以在需要访问的页面时才把页面调入内存(虚拟存储技术),可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存#

在这里插入图片描述

可将长长的页表进行分组,使每个内存块刚好可以投入一个分组(比如在上一个例子中,页面大小4KB,每个页表项4B,每个页面可存放1K个页表项,因此每1K个连续的页表为一组, 每组刚好占一个内存块,再将各组离散的放到各个内存块中)
另外,要为离散分配的页表再建立一张页表,称为页目录表,或称外层页表,或称顶层页表

3.两级页表的原理,地址结构

32位逻辑地址空间,此表项大小为4B,页面大小为4KB,则页内地址占12位
在这里插入图片描述
在这里插入图片描述

4.如何实现地址变换

在这里插入图片描述

5.需要注意的几个小细节

1.若采用多级页表机制,则各级各表的大小不能超过一个页面
在这里插入图片描述
2.两级页表的访存次数分析(假如没有块表机构)
第一次访存:访问内存中的页目录表
第二次访存:访问内存中的二级页表
第三次访存:访问目标内存单元
n级目录访存n+1次
在这里插入图片描述

(5)基本分段储存管理方式
1.分段

进程的地址空间,按照程序自身的逻辑关系划分为若干个段,,每个段都有一个段名(在低级语言中,程序员使用段名进行编程),每段从0开始编址
内存分配原则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻
由于是按逻辑功能模块划分,用户编程更方便,程序可读性更高
在这里插入图片描述
分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成,如:在这里插入图片描述
段号的位数决定了每一个进程最多可以分几个段,段内地址位数决定了每个段的最大长度是多少
在这里插入图片描述
在这里插入图片描述

2.段表

问题:程序被分多个段,各段离散的装入内存,为了保证程序能正常的运行,就必须能从物理内存中找到各个逻辑段的存放位置,为此,需要为每个进程建立一张段映射表,简称”段表“
在这里插入图片描述
1.每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称”基址“)和段的长度
2.各个段表项的长度是相同的,例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号16位,段内地址16位),因此用16位即可表示最大段长,物理内存的大小为4GB(可用32位表示整个物理内存地址空间)。因此,可以让每个段表项占16+32=48位,即6B
.由于段表项长度相同,因此**段号可以是隐藏的,不占存储空间。**若段表存放的起始地址为M,则K号段对应的段表项的存放地址为M+K*6

3.地址变换

在这里插入图片描述
在这里插入图片描述

4.分段,分页管理的对比

页是信息的物理单位,分页的主要目的是为了实现离散分配,提高内存利用率,分页仅仅是系统管理上的需要,完全是系统行为,对用户不可见的。
段是信息的逻辑单位,分段的主要目的是更好的满足用户的需求,一个段通常包含一组属于一个逻辑模块的信息。分段对用户式可见的,用户编程时需要显式的给出段名。
页的大小是固定并且由系统决定的,段的长度却不固定,决定于用户编写的程序。
分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址在这里插入图片描述
分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,爷要给出段内地址
在这里插入图片描述
分段比分页更容易实现信息的共享和维护
不能被修改的代码称为纯代码或者可重入代码(不属于临界资源),这样的代码是可以共享的,可修改的代码是不可共享的,(比如:一个代码段中有很多变量,各进程并发的同时访问可能造成数据不一致)在这里插入图片描述
在这里插入图片描述
访问一个逻辑地址需要几次访存?
分页(单级页表):一次访存—查内存中的页表,第二次访存—访问目标地址内存单元,总共两次防存
分段:第一次访存—查内存中的段表,第二次访存—访问目标内存单元,总共两次访存
与分页系统相似,分段胸痛中也可以引入快表机构,将近期访问过的段表项放入快表中,这样就可以少一次访问,加快地址变换速度在这里插入图片描述

3.2 虚拟内存管理

3.2.1 虚拟内存的基本概念

1.传统存储管理方式的特征和缺点

在这里插入图片描述
一次性:作业必须一次性全部装入内存后才能开始运行,这会造成两个问题,①作业很大时,不能全部装入内存,导致大作业无法运行,②当大量作业要求运行时,由于内存无法容纳所哟作业,因此只有少量作业能够运行,导致多道程序并发度下降
驻留性: 一旦作业被装入内存,就会一直驻留在内存中 ,甚至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的,暂时用不到的数据,浪费了宝贵的内存资源
这些特点都可以通过虚拟内存技术来实现
虚拟内存技术基于局部性原理

2.局部性原理

时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行,如果某个数据被访问过,不久之后该数据很可能再次被访问(因为程序中可能存在大量的循环)
空间局部性:一旦程序访问呢了某个程序单元,在不久之后,其附近的存储单元也很有可能被访问,(因为很多数据在内存中都是连续存放的,并且程序的指令也是顺序存放在内存中存放的)

3.虚拟内存的定义和特征

在这里插入图片描述
基于局部性原理,在程序装入时,可以将程序中很快用到的部分装入内存,暂时用不到的部分装入外存,就可以让程序开始运行
在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行内存
若内存空间不足,由操作系统负责将内存中暂时用不到的信息换出到外存
在操作系统的管理下,在用户看来似乎有一个比实际内容大得多的内存,这就是虚拟内存
操作系统虚拟内存的一个体现,实际的物理内存大小没有变,只是逻辑上进行了扩充
虚拟内存有以下三种主要特征
多次性:无需在作业运行时一次性把全部转入内存,而是允许被分成多次调入内存
对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入换出
虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量

4.如何实现虚拟内存技术?

绪涅内存技术,允许一个作业分多次堕入内存,如果采用连续分配方式1,会不方便实现,因此,虚拟内存的实现需要在离散分配的内存管理方式基础上
在这里插入图片描述
主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外村调入内存,然后继续执行程序
操作系统要提供请求掉页(或请求调段)功能

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
操作系统要提供页面置换(或段智焕)的功能
在这里插入图片描述

3.2.2 请求分页管理方式

主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外村调入内存,然后继续执行程序
操作系统要提供请求掉页(或请求调段)功能

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
操作系统要提供页面置换(或段智焕)的功能
在这里插入图片描述

1.页表机制

与基本管理分页相比,为了实现“请求调也”,操作系统需要知道每个页面是否已经调入内存,如果还没有调入,那么也需要知道该页面在外存中存放的位置。
当内存空间不够时,要实现“页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面,有的页面没有被修改过,就不用再浪费事件写回外存,有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息
在这里插入图片描述

2.缺页中断机构

假设此时要访问逻辑地址=(页号,页内偏移量)=(0,1024)
在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断
此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。
如果内存中有空闲块,则需要为进程分配一个空闲块,蒋所缺页面装入该块,并修改页表中相应的页表项。
在这里插入图片描述
如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其写回外存,未修改过的页面不用写回外存。
在这里插入图片描述
在这里插入图片描述
缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断
一条指令在执行期间,可能产生多次缺页中断
在这里插入图片描述

3.地址变换机构

主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外村调入内存,然后继续执行程序
操作系统要提供请求掉页(或请求调段)功能

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
操作系统要提供页面置换(或段智焕)的功能

新增步骤1:请求调用(直到页表项时进行判断)
新增步骤2:页面置换(需要调入页面,但没有空闲内存块时进行)
新增步骤3:需要修改请求页表中新增的表现
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2.3 页面置换算法(决定应该换入哪页,换出哪页)

主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外村调入内存,然后继续执行程序
操作系统要提供请求掉页(或请求调段)功能

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存
操作系统要提供页面置换(或段智焕)的功能
在这里插入图片描述

1.最佳置换算法(OPT)

最佳置换算法(OPT,Optimal)每次选择淘汰的页面将是以后永不使用,或者在最长的事件内不再被访问的页面,这样可以保证最低的缺页率
在这里插入图片描述
最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能直到接下来会访问到的是哪个页面,操作系统无法提前预判页面访问学列。因此,最佳置换算法是无法实现的

2.先进先出置换算法(FIFO)

先进先出置换算法(FIFO):在每次选择淘汰的页面最早进入内存的呢面
实现方法:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。队列的长度取决于系统为进程分配了读诵好个内存块。
在这里插入图片描述
在这里插入图片描述
Belady异常: 党委进程发呢的物理块增大时,却也的次数不见发增的异常现象。
只有FIFO算法会产生Belady异常。另外,FIFO算法虽然实现简单 ,但是该算法与进程实际运行的时间规律不适应,因此先进入的页面也会可能最经常被访问,因此,算法性能差

3.最近最久使用置换算法(LRU)

最近最久未使用置换算法(LRU,least recently used),每次淘汰的页面最近最久未使用的页面
当需要淘汰一个页面时,选择现有页面中t值最大的,即最近最久使用的页面
在这里插入图片描述
该算法的实现需要专门的硬件支持,虽然算法性能好,但是现实困难,开销大

4.时钟置换算法(CLOCK)

最佳置换算法性能最好,但无法实现,先进先出置换算法实现简单,最近最久未使用置换算法性能好,是最接近OPT算法性能的,但是实现起来需要专门的硬件支持,算法开销大。
始终置换算法是一种性能和开销较均衡的算法,又称CLOCK算法,或最近未用算法(NRU,Mot Recently Used)
简单的clock算法是一种性能和开销叫均衡的算法,为每个页面设置一个访问位,再将内存中的页面都通过链接指针连接成一个循环队列,当某页被访问时,其访问位置为1,当需要淘汰一个页面时,只需检查页的访问位,如果是0,就选择该页换出,如果是1,则将它置为0,暂不换出,继续检查下一个界面,若第一轮扫描后都是1,则将这些页面的访问位依次置为0后,在进行第二轮扫描(第二轮扫描中一定会由访问位为0的页面,因此简单的clock算法选择一个淘汰页面最多会经过两轮扫描
在这里插入图片描述

5.改进型的时钟置换算法

简单的时钟置换算法仅考虑到一个页面最近是否被访问过,实际上,如果被淘汰的页面没有被修改过,就不需要I/O操作写回外存,只有被淘汰的页面被修改过时,才需要写回外存
因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过,在其他条件都相同时,应优先淘汰没有修改过的页面,避免I/O操作,这就是改进型的世宗置换算法的思想,
修改为=0,表示页面没有被修改过,修改为=1,表示页面被修改过
为方便讨论,用(访问位,修改为)的形式表示各页面状态,如(1,1)表示一个页面近期被访问过,且被修改过
算法规则: 将所有可能被置换的页面排成一个循环队列
第一轮:从当前位置开始扫描到第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位
第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换,本轮将所有扫描过的帧访问位设为0
第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位
第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换
由于第二轮已将所有帧的访问位设为0,因此经过第三轮,第四轮扫描一定会有一个帧会被选中,因此改进型CLOCK置换算法选择一个淘汰界面最多会进行四轮扫描
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.2.4 页面分配策略

1.页面分配,置换策略

驻留集:指请求分页存储管理中给进程分配的物理块的集合
在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小
若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进剂的时间很少,驻留集太大,又会导致多道程序并发度下降,资源利用率降低,所以应该选择一个合适的驻留集大小

固定分配: 操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不会再改变,即,驻留集大小不变
可变分配: 先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少,即,驻留集大小可变

局部置换: 发生缺页时只能选进程自己的物理块进行置换
全局置换: 可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程
在这里插入图片描述
在这里插入图片描述
固定分配全局置换:系统为每个进程分配一定数量的物理块,在整个运行期间都不改变,若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。
这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理,(采用这种策略的系统可以根据进程大小,优先级,或是根据程序员写出的参数来确定为一个进程分配的内存块数)
可变分配全局置换: 刚开始会为进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某些进程发生缺页时,从空闲物理块中取出一块分配给该进程,若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程,采用这种策略时,只有某进程发生缺页都会获得新的物理块,仅当空闲物理块用完时,系统才选择一个未琐定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加
在这里插入图片描述
可变分配局部置换:刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选择一个进行换出外存,如果进程在运行中频繁的缺页,系统会为该进程多分配几个物理块,直到该进程缺页率趋势适当程度,反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块

固定分配全局置换:只要缺页寄给分配新物理块
可变分配局部置换:只根据发生缺页的频率来动态地增加或减少进程地物理块

2.何时调入页面

在这里插入图片描述

3.从何处调入页面

在这里插入图片描述

4.抖动(颠簸)现象

刚刚换出地页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸,产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够
在这里插入图片描述

5.工作集

驻留集:指请求分页存储管理中给进程分配的内存块的集合
工作集:指在某段时间间隔里,进程实际访问页面的集合。

在这里插入图片描述
工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块,如:窗口尺寸为5,经过一段时间的检测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。
一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁缺页

拓展:基于局部性原理可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的,因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法–选择一个不在工作集中的页面进行淘汰。
在这里插入图片描述

第四章 文件管理

4.1 文件系统基础

4.1.1 文件的概念

1.文件的定义

文件:就是一组有意义的信息/数据集合
在这里插入图片描述

2.文件的属性

一个文件有哪些属性?
文件名:由创建文件的用户决定文件名,主要是为了方便用户找到文件,同一目录下不允许有重名文件
标识符:一个系统内的个文件标识符唯一,对用户来说毫无可读性,因此标识符只是操作系统用于区分各个文件的一种内部名称
类型:指明文件的类型
位置:文件的存放路径(让用户使用),在外村中的地址(操作系统使用,对用户不可见)
大小:指明文件大小
创建时间,上次修改时间,文件所有者信息
保护信息:对文件进行保护的访问控制信息
.

3.文件内部的程序应该怎么样组织起来?

在这里插入图片描述
在这里插入图片描述

4.文件之间应该怎么样组织起来?

在这里插入图片描述

5.操作系统应该向上提供哪些功能?

在这里插入图片描述

在这里插入图片描述

6.从上往下看,文件应如何存放在外存?

在这里插入图片描述
在这里插入图片描述

7.其他需要由操作系统实现的文件管理功能

文件共享:使多个用户可以共享使用一个文件
文件保护:如何保证不用的用户对文件由不同的操作权限
在这里插入图片描述

4.1.2 文件的逻辑结构

所谓的“逻辑结构”,就是指在用户看来,文件内部的数据应该使如何组织起来的,而“物理结构”指的是在操作系统看来,文件的数据是如何存放在外存中的
类似于数据结构的“逻辑结构”和“物理结构”
“线性表”这种逻辑结果可以用不同的物理结构实现,如顺序表/链表
可见,算法的具体实现与逻辑实现,物理结构都有关(文件也一样,文件操作的具体实现与文件的逻辑结构,物理结构都有关)

1.无结构文件

按文件是否有结构分类,可以分为无结构文件,有结构文件两种
无结构文件:文件内部的数据就是一系列二进制流或字符流组成,又称“流式文件”如Windows操作系统中的.txt文件

2.有结构文件

有结构文件:由一组相似的记录组成,又称“记录式文件”。每条记录又若干个数据项组成,如:数据库表文件。一般来说,每条记录有一个数据项可作为关键字(作为识别不同记录的ID)
在这里插入图片描述
根据各条记录的长度(占用的存储空间)是否相等,又可分为定长记录可变长记录两种
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.顺序文件

顺序文件:文件中的记录一个接一个地顺序排列(逻辑上),记录可以是定长的或可变长的,各个记录在物理上可以顺序存储链式存储
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
结论:定长记录地顺序文件,若物理上采用顺序存储,则可以实现随机存取, 若能再保证记录地顺序结构,则可实现快速检索(即根据关键字快速找到对应记录)
注:一般来说,考试题目中所说的”顺序文件“指的是物理上顺序存储地顺序文件。之后的讲解中提到的顺序文件也默认如此
可见,顺序文件的缺点增加/删除一个记录比较困难(如果是串结构则相对简单)

4.索引文件

对于可变长记录文件,要找到第i个记录,必须先顺序的查找钱i-1个记录,但是很多应用场景中又必须使用可变长记录,如何解决这个问题?
在这里插入图片描述
索引表本身是定长记录的顺序文件。因此可以快速找到第i个记录对应的索引项,
可将关键字作为索引号内容,若按关键字顺序排列,则还可以支持按照关键字折半查找
每当要增加/删除一个记录时,需要对索引表进行修改,由于索引文件又很快的检索速度,因此主要用于对信息处理的及时性要求比较高的场合
另外,可以用不同的数据项建立多个索引表,如:学生信息表中,可用关键字“学号”建立一张索引表,也可用“姓名”建立一张索引表,这样就可以根据“姓名”快速地检索文件了
(SQL就支持根据某个数据项建立索引的功能)

5.索引顺序文件

索引文件的缺点:每个记录对应一个索引表项,因此索引表项可能会很大

索引顺序文件是索引文件和顺序文件思想的结合,索引顺序文件中,同样会为文件建立一张索引表,但不同的是:并不是每个记录对应一个索引表项,而是一组记录对应一个索引表项
在这里插入图片描述
检索效率分析
在这里插入图片描述

6.多级索引顺序文件

为了进一步提高检索效率,可以为顺序文件建立多级索引表
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.1.3 目录结构

1.文件控制块

在这里插入图片描述
在这里插入图片描述
最重要,最基本的还是文件名,文件存放的物理地址
FCB实现了文件名和文件之间的映射,使用户(用户程序)可以实现“按名存取”
需要对目录进行哪些操作?
搜索:当用户要使用一个文件时,系统要根据文件名搜索目录,找到该文件对应的目录项,
创建文件:创建一个新文件时,需要在其所属的目录中增加一个目录项
删除文件:当删除一个文件时,需要在目录中删除相应的目录项
显示目录:用户可以请求显示目录的内容,如显示该目录中的所有文件及相应属性
修改目录:某些文件属性保存在目录中,因此这些属性变化时需要修改相应的目录项(如:文件重命名)

2.目录结构—多级目录结构(又称树形目录结构

加粗样式
用户(或用户进程)要访问某个文件时腰用文件路径名标识文件,文件路径名是个字符串,各级目录之间用“/”隔开,从根目录出发的路径称为绝对路径
很多时候,用户会连续访问同一目录内的多个文件,显然,每次都从根目录开始查找,是很低效的,因此可以设置一个“当前目录
例如:此时已经打开了“照片”的目录文件,也就是说,这张目录表已经调入内存,那么可以吧它设置为“当前目录”,当用户想要访问某个文件时,可以使用从当前目录出发的“相对路径
可见,引入“当前目录”和“相对路径”后,磁盘I/O的次数减少了,这就提升了访问文件的效率
树形目录结构不利于数据的共享

3.索引结点(FCB的改进)

在这里插入图片描述
当找到文件名对应的目录项时,才需要将索引结点调入内存,索引结点中记录了文件的各种信息,包括文件在外存中的存放位置,根据”存放位置“即可找到文件
存放在外存中的索引结点称为”磁盘索引节点“,当索引结点放入内存后称为”内索引节点
相比之下内存索引节点中需要增加一些信息,比如:文件是否被修改,此时有几个进行正在访问该文件等
在这里插入图片描述

4.1.4 文件共享

在这里插入图片描述
操作系统为用户提供文件共享功能,可以让多个用户共享地使用同一个文件
注意:多个用户共享同一个文件,意味着系统中只有”一份“文件数据,并且只要某个用户修改了该文件的数据,其他用户也可以看到文件数据的变化
如果是多个用户都复制了同一个文件,那么系统中会有”好几份“文件数据,其中一个用户修改了自己的那份文件数据,对其他用户的文件数据并没有影响

1.基于索引结点的共享方式(硬链接)

在这里插入图片描述
索引结点中设置一个链接计数变量count,用于表示链接到本索引节点上的用户目录享数
若count=2,说明此时有两个用户目录项链接到该索引节点上,或者说是有两个用户在共享此文件
若某个用户决定”删除“该文件,则只是要把用户目录中与该文件对应的目录项删除,且索引节点的count值减一

2.基于符号链的共享方式(软链接)

在这里插入图片描述
当user3访问”ccc“时,操作系统判断文件”ccc“属于link类型文件,于是会根据其中记录的路径层层查找目录,最终找到user1的目录表中的”aaa“表项,于是就找到了文件1的索引结点
在这里插入图片描述
删除:
加粗样式
在这里插入图片描述
在这里插入图片描述

4.1.5 文件保护

1.口令保护

为文件设置一个”口令“(如:abc112233),用户请求访问该文件时必须提供”口令“
口令一般存放在文件对应的FCB或索引节点中,用户访问文件前需要先输入”口令“,操作系统会将用户提供的口令与FCB中存储的口令进行对比,如果正确,则允许该用户访问文件
优点:保存口令的空间开销不多,验证口令的时间开销也很小
缺点:正确的”口令“存放在系统内部,不够安全

2.加密保护

使用某个”密码“对文件进行加密,在访问文件时需要提供正确的”密码“才能对文件进行正确的解密
在这里插入图片描述
在这里插入图片描述
优点:保密性强,不需要在系统中存储密码
缺点:编码/译码,或者说加密/解密要花费一定时间

3.访问控制

在每个文件的FCB(或索引结点)中增加一个访问控制列表(Access-Control List,ACL),该表中记录了各个用户可以对该文件执行哪些操作
在这里插入图片描述
有的计算机可能会有很多个用户,因此访问控制列表可能会很大,可以用精简的访问列表解决这个问题
精简的访问列表:以”组“为单位,标记各”组“用户可以对文件执行哪些操作
如:分为系统管理员,文件主,文件主的伙伴,其他用户几个用户
当某用户想要访问文件时,系统会检查该用户所属的分组是否有相应的访问权限。(系统需要管理分组的信息)
在这里插入图片描述
若想要让某个用户能够读取文件,只需要把该用户放入”文件主的伙伴“这个分组即可

4.Windows的访问控制

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.1.6文件的基本操作

1.创建文件(Create系统调用)

在这里插入图片描述
进行create系统调用时,需要提供的几个主要参数:
1.所需的外存空间大小(如:一个盘块,1KB)
2.文件存放路径(D:/)
3.文件名(这个地方认为默认”新建文本文档.txt“)
操作系统在处理create系统调用时,主要做了2件事情:
1.在外存中找到文件所需的空间(结合上小节学习的空间链表法,位示图,成组链接法等管理策略‘,找到空闲空间)
2.根据文件存放路径的信息找到该目录对应的目录文件(此处就是D:/目录),在目录中创建该文件对应的目录项。目录项中包含了文件名,文件在外存中的存放位置等信息

2.删除文件(Delete系统调用)

在这里插入图片描述
进行Delete系统调用时,需要提供的几个主要参数:
1.文件存放路径(“D:/”)
2.文件名(“test.txt”)

操作系统在处理Delete系统调用时,主要做了几件事:
1.根据文件存在路径找到相应的目录文件,从目录中找到文件名对应的目录项
2.根据该目录项记录的文件在外存的存储位置,文件大小等信息,回收文件占用的磁盘块,(回收磁盘块,根据空闲表法,空闲链表法,位图法等管理策略的不同,需要做不用的处理)
3.从目录表中删除文件对应的目录项

3.读文件(Read系统调用)

在这里插入图片描述

4.写文件(Write系统调用)

在这里插入图片描述

5.打开文件(Open系统调用)

在很多操作系统中,在对文件进行操作之前,要求用户先用open系统调用“打开文件”,需要提供几个主要的参数:
1.文件存放路径(“D:/”)
2.文件名(“test.txt”)
3.要对文件的操作类型(如:r只读,rw读写等)

操作系统在处理open系统调用时,主要做了几件事情
1.根据文件存放路径找到相应的文件,从目录中找到文件名对应的目录项,并检查该用户是否有指定的操作权限
2.将目录项复制到内存中的”打开文件表“中,并将对应表目的编号返回给用户,之后,用户使用打开文件表的编号来指明要操作的文件
在这里插入图片描述
在这里插入图片描述

6.关闭文件(close系统调用)

在这里插入图片描述
进程使用完文件后,要“关闭文件”
操作系统在处理close系统调用时,主要做了几件事:
1.将进程的打开文件表相应表项删除
2.回收分配给该文件的内存空间等资源
3.系统打开文件表计数器count减1,若count = 0 ,则删除对应表项
在这里插入图片描述

4.2 文件系统实现

操作系统需要对磁盘块进行哪些操作
对非空闲磁盘块的管理(存放了文件数据的磁盘块)
"文件的物理结构/文件分配方式"要探讨的问题
对空闲磁盘块的管理
”文件存储空间管理“要探讨的问题

补充知识:文件块,磁盘块

类似于内存分页,磁盘中的存储单元也会被分为一个个”块/磁盘块/物理块“很多操作系统中,磁盘块的大小与内存块,页面的大小相同
在这里插入图片描述
在这里插入图片描述
内存与磁盘之间的数据交换(即读/写操作,磁盘I/O)都是以”块“为单位进行的,即每次读入一块,或每次写出一块
在内存管理中,进程的逻辑空间分为一个一个空间
同样的,在外存管理中,为了方便对文件数据的管理,文件的逻辑地址空间也就分为了一个一个的文件”块“
于是,文件的逻辑地址也可以表示为(逻辑块号,块内地址)的形式
在这里插入图片描述

4.2.1 文件系统层次结构

在这里插入图片描述

1.用户接口

文件系统需要向上层的用户提供一些简单易用的功能接口,这层就是用于处理用户发出的系统调用请求(Read,write,open,close等系统调用)

2.文件目录系统

用户是通过文件路径来访问文件的,因此这一层需要根据用户给出的文件路径找到相应的FCB或索引结点,索引和目录,目录项相关的管理工作都在本层完成,如:管理活跃的文件目录表,管理打开文件表等

3.存取控制模块

为了保证文件数据的安全,还需要验证用户是否有访问权限,这一层主要完成了文件保护的相关功能

4.逻辑文件系统与文件信息缓冲区

用户指明想要访问文件记录号,这一层需要将记录好转换为对应的逻辑地址

5.物理文件系统

这一层需要把上一层提供的文件逻辑地址转换为实际的物理地址

6.辅助分配模块

负责文件存储空间的管理,即负责分配和回收存储空间

7.设备管理模块

直接与硬件交互,负责与硬件直接相关的一些管理工作,如:分配设备,分配是设备分配缓冲区,磁盘调度,启动设备,释放设备等

在这里插入图片描述

4.2.2 目录实现

1.线性列表
2.哈希表

4.2.3 文件实现-- 文件分配方式

1.连续分配

连续分配方式要求每个文件在磁盘上占有一组连续的块
在这里插入图片描述
用户给出要访问的逻辑块号,操作系统找到该文件对应的目录项(FCB)…
物理块号 = 起始块号 + 逻辑块号
当然,还需要检查用户提供的逻辑块号是否合法(逻辑块号小于等于长度 就不合法)

可以直接算出逻辑块号对应的物理块号,因此连续分配支持顺序访问和直接访问(即随机访问)

读取某个磁盘块时,需要移动磁头,访问的两个磁盘块相隔越远,移动磁头所需时间就越长
在这里插入图片描述
结论:连续分配的文件在顺序读/写时速度最快

在这里插入图片描述
若此时文件A要拓展,需要再增加一个磁盘块(总共需要四个连续的磁盘块),由于采用连续结构,因此文件A占用的磁盘块必须是连续的。
因此只能将文件A全部”迁移“到绿色区域

结论:物理上采用连续分配的文件不方便拓展
在这里插入图片描述
结论:物理上采用连续分配,存储空间利用率低,会产生难以利用的磁盘碎片。
可以用紧凑来处理碎片,但是需要耗费很大的时间代价

连续分配(总结)
连续分配方式要求每个文件在磁盘上占有一组连续的块
优点:支持顺序访问和直接访问(即随机访问),连续分配的文件在顺序访问时速度最快
缺点:不方便文件拓展,存储空间利用率低,会产生磁盘碎片

2. 链接分配

连接分配采取的是离散分配的方式,可以为文件离散分配的磁盘块,分为隐式存储显式存储两种

(1)隐式链接

目录中记录了文件存放的起始块号和结束块号,当然,也可以增加一个字段来表示文件的长度
除了文件的最后一个磁盘块之外,每个磁盘块中都会保存指向下一个盘块的指针,这些指针对于用户来说是透明的
在这里插入图片描述
在这里插入图片描述
结论:采用链式分配(隐式链接) 方式的文件,只支持顺序访问,不支持随机访问,查找效率低,另外,指向下一个盘块的指针也需要消耗少量的存储空间

是否方便拓展文件?
若此时要拓展文件,则可以随便找一个空闲磁盘块,挂到文件的磁盘块链尾,并修改文件的FCB

结论:采用隐式链接的连接分配方式,很方便文件拓展,另外,所有的空间磁盘块都可以被利用,不会有碎片问题,外存利用率高

隐式链接:
除了文件的最后一个磁盘块之外,每个磁盘块中都会保存指向下一个盘块的指针,这些指针对于用户来说是透明的
优点:很方便文件拓展,不会出现外存碎片,外存利用率高
缺点:只支持顺序访问,不支持随机访问,查找效率低,指向下一个盘块的指针也需要耗费少量的存储空间

(2)显式连接

把用于链接文件各物理块的指针显式地存放在一张表中,即文件分配(FAT,File Allocation Table)
在这里插入图片描述
注意:一个磁盘仅设置一张FAT,开机时,将FAT读入内存,并常驻内存,FAT的各个表项在物理上连续存储,且每一个表项长度相同,因此”物理块号“字段是可以是隐含的

如何实现文件的逻辑块号,若i>0,则查询内存中的文件分配块FAT,往后找到i号逻辑块对应的物理块号,逻辑块号转换为物理块号的过程不需要读磁盘操作
结论:采用链式分配(显式存储) 方式的文件,支持顺序访问,也支持随机访问(想访问i号逻辑块时,并不需要依次访问之前的0-i-1号逻辑块),由于逻辑块号的过程不需要访问磁盘,因此相对于隐式链接来说,访问速度快很多
显然,显示连接也不会产生外部碎片,也可以很方便的对文件进行拓展

显式连接
把用于链接文件各物理块的指针显式地存放在一张表中,即文件分配(FAT,File Allocation Table)。一个磁盘只会建立一张文件分配表,开机时文件分配表放入内存,并常驻内存
优点:很方便文件拓展,不会有碎片问题,外存利用率高,并且支持随机访问,相比于隐式链接来说,地址转换不需要访问磁盘,因此文件的访问效率更高
缺点:文件分配表的需要占用一定的存储空间

考试题中遇到未指明隐式/显式的”链接分配“,默认的是隐式链接的连接分配

3. 索引分配

索引分配允许文件离散地分配在各个磁盘块中,系统会为每个文件建立一张索引表,索引表中记录了文件的各个逻辑块对应的物理块(索引表的功能类似于内存管理中的页表–建立逻辑页面到物理页之间的映射关系),索引表存放的磁盘块称为索引表,文件数据存放的磁盘块称为数据块
在这里插入图片描述
注:在显示链接的链式分配方式中,文件分配表FAT是一个磁盘对应一张,而索引分配方式中,索引表是一个文件对应一张表
可以用固定的长度表示表示物理块号(如:假设磁盘总容量为1TB=2^40B,磁盘块大小为1KB,则共有2 ^30个磁盘块,则可用4B表示磁盘块号),因此,索引表中的”逻辑块号“可以是隐含的

如何实现文件的逻辑块号到物理块号的转换?
用户给出要访问的逻辑块号i,操作系统要找到该文件对应的目录项(FCB)
从目录项中可知索引表存放位置,将索引表从外存读入内存,并查找索引表即可知i号逻辑块在外存的存放位置。

可见,索引分配方式可以支持随机访问
文件拓展也很容易实现(只需要给文件分配一个空闲块,并增加一个索引表项就可以了)

若每个磁盘块1KB,一个索引表项4B,则一个磁盘块只能存放256个索引项
如果一个文件的大小超过了256块,那么一个块是装不下文件的整张索引表的,如何解决这个问题?
①链接方案
②多层索引
③混合索引

①链接方案

①链接方案:如果索引表太大,一个索引块装不下,那么可以将多个索引块链接起来存放
在这里插入图片描述

②多层索引

②多层索引:建立多层索引(原理类似于多级页表),使第一层索引块指向第二层的索引块,还可根据文件大小的要求再建立第三层,第四层索引块
在这里插入图片描述
采用k层索引结构,且顶级索引表未调入内存,则访问一个数据块只需要K+1次读磁盘操作

③混合索引

③混合索引:多种索引分配方式相结合,例如,一个文件的顶级索引表中,即包含直接地址索引(直接指向数据块),又包含一级间接索引(指向单层索引表),还包含两级间接索引(指向两层索引表)
在这里插入图片描述
若顶级索引表还没有读入内存
访问0~7号逻辑块,两次读磁盘
访问8~263,三次读磁盘
访问264-65799 四次都磁盘操作
对于小文件,只需较少的都磁盘次数就可以访问目标数据块。(一般计算机中小文件更多)

总结:
①链接方案
如果索引表太大,一个索引块装不下,那么可以将多个索引块链接起来存放。缺点:若文件很大,索引表很长,就需要将很多个索引块连接起来,想要找到i号索引块,必须线依次读入0~i-1号索引块,这导致I/O次数过多,查找效率低下
②多层索引
建立多层索引(原理类似于多级页表),使第一层索引块指向第二层的索引块,还可根据文件大小的要求再建立第三层,第四层索引块,采用k层索引结构,且顶级索引表未调入内存,则访问一个数据块只需要K+1次读磁盘操作,缺点:即使是小文件,访问一个数据块依然需要k+1次读磁盘

③混合索引:多种索引分配方式相结合,例如,一个文件的顶级索引表中,即包含直接地址索引(直接指向数据块),又包含一级间接索引(指向单层索引表),还包含两级间接索引(指向两层索引表)
优点:对于小文件来说,访问一个数据块所需的读磁盘次数更少

超超超超级重要考点:①要会根据多层索引,混合索引的结构计算出文件的最大长度(key:各级索引表最大不能超过一个块)②要能自己分析访问某个数据库所需要的读磁盘次数(key:FCB中会存有指向顶级索引块的指针,因此可以根据FCB读入顶级索引快。每次读入下一级的索引表都需要做一次磁盘读写操作,另外注意的是,题目条件----顶级索引块是否已经调入内存)
在这里插入图片描述

4.2.4 文件实现----文件存储空间管理

1.存储空间的划分与初始化

安装windows操作系统的时候,一个必经步骤是—为磁盘分区(C盘,D盘,E盘等)
存储空间的划分:将物理磁盘划分为一个个文件卷(逻辑卷,逻辑盘)
在这里插入图片描述

2.文件存储器空间管理
①空闲表法

适用于”连续分配方式“

如何分配磁盘盘块:在内存管理中的动态分区分配很类似,为一个文件分配连续的存储空间,同样可采用首次适应,最佳适应,最坏适应等算法来决定要为文件分配哪个区间
如何回收磁盘块,与内存管理中的动态分区分配很类似,当回收某个存储区时需要有四种情况—①回收区的前后都没有相邻空闲区②回收区的前后都是空闲区③回收区前面是空闲区④回收区后面是空闲区
总之,回首时需要注意表象的合并问题

②空闲链表法

空闲盘块链 空闲盘区链
在这里插入图片描述
空闲盘块链
操作系统保存着 链头链尾指针
如何分配:若某文件申请k个盘块,则从头开始依次摘下K个盘块分配,并修改空闲链的链头指针
如何回收:回收的盘块依次挂到链尾,并修改空闲链的链尾指针
(适用于离散分配的物理结构,为文件分配多个盘块时可能要重复多次操作)
在这里插入图片描述

空闲盘区链
操作系统保存着 链头,链尾指针
如何分配:若某文件申请K个盘块,则可以采用首次适应,最佳适应算法等算法,从链头开始检索,按照算法规则找到一个合大小符合要求的空闲盘区,分配给文件,若没有合适的连续空闲块,也可以将不同盘区的盘块同时分配给一个文件,注意分配后可能要修改相应的链指针,盘区大小等数据
如何回收:若回收区和某个空闲盘区相邻,则需要将回收区合并到空闲盘区中,若回收区没有和任何空闲区相邻,将回收区作为一个单独的一个空闲盘区挂到链尾
(离散分配,连续分配都是用,为一个文件分配分配多个盘块时效率更高)

③位示图法

在这里插入图片描述

在这里插入图片描述
位示图:每个二进制位对应一个磁块,在本例中,”0“代表盘块空闲,”1“代表盘块已分配,位示图一般用连续的”字“来表示,如本例中一个字的字长为16位,字中的每一个位对应一个盘块,因此可以用**(字号,位号)对应一个盘块号**,当然有的题目中也描述为**(行号,列号)**
重要重要重要:要能自己推出盘块号与(字号,位号)相互转换的公式
注意题目条件:盘块号,字号,位号到底是从0开始还是从1开始
如本例中盘块号,字号,位号从0开始,若n表示字长,则
(字号,位号)=(i,j)的二进制对应的盘块号 b = ni +j
在这里插入图片描述
b号盘块对应的字号 i = b/n,位号 j = b% n
在这里插入图片描述
如何分配:若文件需要k个块,①顺序扫描位示图,找到k个相领或不相邻的”0“,②根据字号位号算出对应的盘块号,将相应的盘块分配给文件,③将相应的位设置为1
如何回收:①根据回收的盘块号计算出对应的字号,位号②将相应的二进制位设为”0“

④成组链接法

空闲表法,空闲链表法不适用于大型的文件系统,因为空闲表或空闲链表可能过大,UNIX系统中采用了成组链接法对磁盘空闲块进行管理
文件卷的目录区中专门用一个磁盘块作为”超级块“,当系统启动时需要将超级块读入内存,并且要保证内存和外存中的”超级快“数据一致
在这里插入图片描述
在这里插入图片描述
如何分配?
Rg:需要一个空闲块
①检查第一个分组的块数是否足够,1<100,因此是足够的
②分配第一个分组中的1个空闲块,并修改相应数据
eg:需要100个空闲块
①检查第一个分组的9块数是否足够,100=100,是足够的
②分配第一个分组中的100个空闲块,但是由于300号块内存放了再下一组的信息,因此300号块的数据需要复制到超级快中
如何回收?
Eg:假设每个分组最多为100个空闲块,此时第一个分组已有99个块,还要再回收一块
在超级块中直接回收

Eg:假设每个分组最多为100个空闲块,此时第一个分组已经有100个块,还要再回收一块
需要将超级快中的数据复制到新回收的块中,并修改超级快的内容,让新回收的块称为第一个分组
在这里插入图片描述
在这里插入图片描述

4.2.5 总结

某个操作系统的文件管理
1.文件的物理结构—索引分配(混合索引)
2.文件目录的实现—inode结点
3.空闲分区的管理—位示图
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.3 磁盘组织与管理

4.3.1 磁盘的结构

1.磁盘,磁道,磁区

磁盘:磁盘的表面由一些磁性物质组成,可以用这些磁性物质来记录二进制数据
在这里插入图片描述
磁道:磁道的盘面被划分为一个个磁道,这样的一个“圈”就是一个磁道
扇区:一个磁道又被分为一个个扇区,每个扇区就是一个“磁盘块”,各个扇区存放的数据量相同(如1KB )
在这里插入图片描述
在这里插入图片描述

2.如何在磁盘中读/写数据

需要把“磁头”移动到想要读/写的扇区所在的磁道
磁盘会转起来,让目标扇区从磁头下面划过,才能完成对扇区的读/写操作
在这里插入图片描述
在这里插入图片描述

3.盘面,柱面

在这里插入图片描述
盘面:指的是一个个磁盘
柱面:所有盘面中相对位置相同的磁道组成柱面
可用(柱面号,磁面号,扇区号)来定位任意一个“磁盘块”,在“文件的物理结构”的地址形式

可根据该地址读取一个“块”
①根据“柱面号”移动磁臂,让磁头指向指定柱面
②激活指定盘面对应的磁头
③磁盘选择的过程中,指定的扇区会从磁头下面划过,这样就完成了对指定扇区的读/写

4.磁盘的分类

磁头可以移动的称为活动头磁盘,磁臂可以来回伸缩来带动磁头定位磁道
在这里插入图片描述
磁头不可以活动的称为固定头磁盘,这种磁盘中每个磁道有一个磁头
在这里插入图片描述
盘片可以更换的是称为可换盘磁盘
盘片不可更换的称为固定盘磁盘
在这里插入图片描述

4.3.2 磁盘调度算法

1. 一次磁盘读/写操作需要的时间

(操作系统可以根据不同的磁盘调度算法会直接影响寻道时间)
寻找时间(寻道时间) Ts:在读/写数据前,将磁头移动到指定磁道所花费的时间
启动磁头臂是需要时间的,假设耗时为s
移动磁头也是需要时间的,假设磁头匀速移动,每跨越一个磁道耗时为m,总共需要跨越n条磁道,则:
寻道时间Ts = s +m*n

延迟时间Ts:通过旋转磁盘,使磁头定位到目标扇区所需要的时间。设磁盘转速为r(单位:转/秒 或 转/分)则平均所需的延迟时间为TR = (1/2) * (1/r) = 1/2r
1/r就是转一圈所需要的时间,找到目标扇区平均需要转半圈,因此再乘以1/2
传输时间Tt:从磁盘读出或向磁盘写入数据所经历的时间,假设磁盘转速为r,此次读/写的字节数为b,每个磁盘上的字节数位n,则
传输时间Tt =(1/r) * (b/N) =b/(rN)

每个磁道要可存在N字节的数据,因此b字节的数据需要b/N个磁道才能存储,而读/写一个磁道所需的时间刚好又是转一圈所需要的时间1/r
(延迟时间和传输时间都与磁盘转速相关,且为线性相关,而转速是硬件的固有属性,因此操作系统也无法优化延迟时间和传输时间)
总的平均存取时间Ta=Ts+1/2r+b/(rN)

2.磁盘调度算法
①先来先服务算法(FCFS )

根据进程请求访问磁盘的先后顺序进行调度。
在这里插入图片描述
优点:公平,如果访问的磁道比较集中的话,算法性能还算过的去
缺点:如果有大量的进程竞争使用磁盘,请求访问的磁道很分散,则FCFS在性能上很差,寻道时间长。

②最短寻找时间优先(SSTF)

SSTF算法会优先处理的磁道与当前磁头最近的磁道,可以保证每次的寻道时间最短,但是并不能保证总的寻道时间最短(其实就是贪心算法的思想,只是选择眼前最优,但是总体未必最优)
在这里插入图片描述
优点:性能较好,平均寻道时间短
缺点:可能产生”饥饿“现象
产生饥饿的原因在于:磁头在一个小区域内来回来去的移动

③扫描算法(SCAN)

SSTF算法产生饥饿的原因在于:磁头在一个小区域内来回来去的移动。为了防止这个问题,可以规定,只有磁头移动到最外侧磁道的时候才能往内移动,移动到最内侧磁道的时候才能往外移动,这就是扫描算法(SCAN)的思想,由于磁头移动的方式很像电梯,因此也叫电梯算法
在这里插入图片描述
优点:性能较好,平均寻道时间较短,不会产生饥饿现象
缺点:①只有到达最边上的磁道时才能改变磁道移动方向,事实上,处理了184号磁道的访问请求之后,就不需要再往右移动磁头了
②SCAN算法对于各个位置磁道的响应效率不平均(如:假设此时磁头正在往右移动,且刚处理过90号磁道的请求就需要等磁头移动很长的一段距离,而响应了184号磁道的请求之后,很快又可以响应184号磁道的请求了)

④LOOK调度算法

扫描算法(SCAN)中,只有到达最边上的磁道时才能改变磁道移动方向,事实上,处理了184号磁道的访问请求之后,就不需要再往右移动磁头了。LOOK调度算法就是为了解决这个问题,如果在磁头移动方向上已经没有别的请求,就可以立即改变磁头的移动方向(边移动边观察,因此叫LOOK)
在这里插入图片描述
优点:比起SCAN算法来,不需要每次都移动到最外侧或最内侧才改变磁头方向,使寻道时间进一步缩短

⑤循环扫描算法(C-SCAN)

SCAN算法对于各个位置磁道的响应频率不平均,而C-SCAN算法就是为了解决这个问题,规定只有磁头朝某个特定方向才处理访问请求,而返回时直接快速移动至起始端而不处理任何请求
在这里插入图片描述
优点:比起SCAN来,对于各个位置磁道的响应频率很平均
缺点:只有到达最边上的磁道时才能改变磁头的移动方向,事实上,处理了184号磁道的请求访问请求之后就不需要再往右移动磁头了,并且,磁头返回时只需要返回到18号磁道即可,不需要返回到最边缘的磁道,另外,比起SCAN算法,平均寻道时间更长

⑥C-LOOK调度算法

C-SCAN算法的主要缺点是只有到达最边上的磁道时才能改变磁头的移动方向,磁头返回时只需要返回到待处理磁道即可,不需要返回到最边缘的磁道
在这里插入图片描述
优点:比起C-SCAN算法来,不需要每次都移动到最外侧或最内侧才改变磁头方向,时须到时间进一步缩短
在这里插入图片描述

4.3.3 磁盘的管理

1.磁盘初始化

磁盘初始化:
Step1:进行低级格式化(物理格式化),将磁盘的各个磁道划分为扇区,一个扇区通常可以分为头,数据区域(如512B大小),尾 三部分组成,管理扇区所需要的各种数据结构一般存放在头,尾两个部分,包括扇区校验码(如:奇偶校验,CRC循环冗余校验码等,校验码用于校验扇区中的数据是否发生错误)
Step2:将磁盘分区,每个分区由若干柱面组成(即我们熟悉的C盘,D盘,E盘)
step3:进行逻辑格式化,创建文件系统,包括创建文件系统的根目录,初始化存储空间管理所用的数据结构(如:位示图,空闲分区表)

2.引导块

计算机开机时需要进行一些列初始化的工作,这些初始化工作是通过执行初始化程序(自举程序)完成的
初始化程序可以放在ROM(只读存储器中),ROM中的数据在出厂时就写入了,并且
以后不能再修改

注意:ROM一般是出厂时就集成在主板上的

初始化程序(自举程序)放在ROM中存在什么问题?
万一需要更新自举程序,将会很不方便,因为ROM中的数据无法更改,如何解决呢?

ROM中只存放很小的”自举装入程序“
开机时计算机先运行”自举装入程序“,通过执行该程序就可找到引导块,并将完整的”自举程序“读入内存,完成初始化

完整的自举程序存放在磁盘的启动块(即引导块/启动分区)上,启动块位于磁盘的固定位置
在这里插入图片描述
拥有启动分区的磁盘称为启动磁盘或系统磁盘(C盘)

3.坏块的管理

坏了,无法正常使用的扇区就是”坏块“,这属于硬件故障,操作系统是无法修复的,应该将坏块标记出来,以免错误地使用到它
在这里插入图片描述
对于简单的磁盘,可以在逻辑格式化时(建立文件系统时)对整个磁盘进行坏块检查,标明哪些块是坏扇区
如:在FAT表上标明。(在这种方式中,坏块对操作系统不透明
对于复杂的磁盘,磁盘控制器(磁盘设备内部的一个硬件部件)会维护一个坏块链表
在磁盘出厂前进行低级格式化(物理格式化)时就将坏块链进行初始化
会保留一些”备用扇区“,用于替换坏块,这种方案称为扇区备用 ,且这种处理方式中,坏块对操作系统透明
在这里插入图片描述

4.3.4 减少延迟时间的方法

在这里插入图片描述

1.交替编号

若采用交替编号的策略,即让逻辑上的扇区在物理上有一定的间隔,可以使读取的逻辑扇区所需要的延迟时间更小。
在这里插入图片描述

2.磁盘地址结构的设计

思考:为什么?
磁盘的物理地址是(柱面号,盘面号,扇区号)
而不是(盘面号,柱面号,扇区号)
答:读取地址连续的磁盘块时,采用(柱面号,盘面号,扇区号)的地质结构可以减少磁头移动消耗的时间
在这里插入图片描述
在这里插入图片描述

3.错位命名

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第5章 输入/输出(I/O)管理

5.1 I/O管理概述

5.1.1 I/O设备

1.什么是I/O设备

“I/O”就是“输入/输出”(Input/Output)
I/O设备就是可以将数据输入到计算机,或者可以接受计算机输出数据的外部设备,属于计算机中的硬件部件
在这里插入图片描述
在这里插入图片描述

2.I/O设备的分类----按使用特性分类

按使用特性分类
人机交互外部设备 (数据传输速率慢)鼠标 显示器
存储设备(数据传输速率快) 硬盘 光盘
网络通信设备(数据传输速率介于二者之间)调制解调器
在这里插入图片描述

3.I/O设备的分类----按传输速率分类

I/O设备按传输速率分类
低速设备 键盘鼠标 每秒传输几个到几百个字节
中速设备 激光打印机 每秒数千到上万个字节
高速设备 磁盘 每秒数千到千兆字节
在这里插入图片描述

4.I/O设备的分类—按信息交换的单位分类

I/O设备按信息交换的单位分类
块设备 磁盘 数据传输的基本设备是“块”
传输速率较高,可寻址,即对它可以随机地读/写任一块

字符设备 鼠标键盘 数据的传输设备为字符
传输速率较慢,不可寻址,在输入/输出时常用中断驱动方式
在这里插入图片描述
在这里插入图片描述

补充知识:I/O控制器

I/O设备分为 机械部件 电子部件(I/O控制器 设备控制器)

1.I/O设备的机械部件

I/O设备的机械部件主要用来执行具体的I/O操作
如我们看的见摸得着的鼠标/键盘的按钮:显示器的LED屏 移动硬盘的磁臂 磁盘盘面
I/O设备的电子部件通常是一块插入主板扩充槽的印刷电路板

2.I/O设备的电子部件(I/O控制器)

CPU无法直接控制I/O设备的机械部件,因此I/O设备还要有一个电子部件作为CPU和I/O设备机械部件之间的”中介“。用于实现CPU对设备的控制
这个电子部件就是I/O控制器,又称设备控制器,CPU可控制I/O控制器,又由I/O控制器来控制设备的机械部件

I/O控制器的功能:
接受和识别CPU发出的命令

如CPU发出来的read/write命令 I/O控制器中有相应的控制寄存器来存放命令和参数
向CPU报告设备状态
I/O控制器中会有相应的状态寄存器,用于记录I/O设备当前的状态,如:1表示空闲,0表示忙碌
数据交换
I/O控制器中会设置相应的数据寄存器,输出时,数据寄存器用于暂存cpu发来的数据,之后再由控制器传送设备,输入时,数据寄存器用于是暂存设备发来的数据,之后CPU从数据寄存器中取走数据
地址识别
类似于i内存的地址,为了区分设备控制器中的各个寄存器,也需要给各个寄存器设置一个特定的”地址“,I/O控制器通过CPU提供的”地址“来判断CPU要读/写的是哪个寄存器

3.I/O控制器的组成

在这里插入图片描述
值得注意的小细节:
①一个I/O控制器可能会对应多个设备
②数据寄存器,控制寄存器,状态寄存器可能有多个(如:每个控制/状态寄存器对应一个具体的设备),且这些寄存器有相应的地址,才能方便CPU操作,有的计算机会让这些寄存器占用内存地址的一部分,称为内存映像I/O,另一些计算机则采用I/O专用地址,即寄存器独立编址

4.内存映像I/O vs 寄存器独立编址

内存映射I/O
控制器中的寄存器与内存地址统一编制
在这里插入图片描述
优点:简化了指令,可以采用对内存进行操作的指令来对控制器进行操作

寄存器独立编址
控制器中的寄存器使用单独的地址
在这里插入图片描述
缺点:需要设置专门的指令来实现对控制器的操作,不仅要指明寄存器的地址,还要指明控制器的编号。
在这里插入图片描述

5.1.2 I/O控制方式

I/O控制方式:即用什么样的方式来控制I/O设备的数据读/写
需要注意的问题:
1.完成一次读/写操作的流程
2.CPU干预的频率
3.数据传送的的单位
4.数据的流向
5.主要缺点和主要优点

1.程序直接控制方式

key word:轮询
1.完成一次读/写操作的流程(以读操作为例)
在这里插入图片描述
在这里插入图片描述
2.CPU干预的频率
很频繁,I/O操作开始之前,完成之后需要CPU介入,并且在等待I/O完成的过程中CPU需要不断地轮询检查

3.数据的传送单位
每次读/写一个字

4.数据的流向
读操作(数据输入):I/O设备→CPU(指的是CPU的寄存器)→内存
写操作(数据输出):内存→CPU→I/O设备

5.主要缺点和主要优点
优点:实现简单,在读/写指令之后,加上实现循环检查的一系列指令即可(因此才称为“程序直接控制方式”)
缺点:CPU和I/O设备只能串行的工作,CPU需要一直轮询检查,长期处于“忙等”状态,CPU利用率低

2.中断驱动方式

1.完成一次读/写操作的流程(key word:中断)
引入中断机制,由于I/O设备速度很慢,因此在CPU发出读/写命令后,可将等待I/O的进程堵塞,先切换到别的进程执行,当I/O完成后,控制器会向CPU发出一个中断信号,CPU检测到中断信号后,会保存当前进程的运行环境信息,专区执行中断处理程序处理该中断,处理中断的过程中,CPU从I/O控制器都一个字的数据传送到CPU寄存器,再写入主存,接着,CPU恢复等待I/O的进程传送到CPU寄存器,再写入主存,接着, CPU恢复等待I/O的进程(或其他进程)的运行环境,然后继续执行
在这里插入图片描述
注意:
①CPU会再每个指令周期的末尾检查中断
②中断处理过程中需要保存,恢复进程的运行环境,这个过程是需要一定时间开销的,可见,如果中断的频率过高,可会降低系统性能

2.CPU干预的频率
每次I/O操作开始前,完成之后需要CPU介入
等待I/O完成的过程中CPU可以切换到别的进程执行
3.数据传送的单位
每次读/写一个字
4.数据的流向
读操作(数据输入):I/O设备→ CPU→内存
写操作(数据输出):内存→CPU→I/O设备
5.主要的缺点和主要的优点
优点:与“程序直接控制方式”相比,在“中断驱动方式”中,I/O控制器会通过中断信号主动报告I/O已完成,CPU不再需要不停地轮询,CPU和I/O设备可以并行工作,CPU利用率得到明显提升
缺点:每个字在I/O设备与内存之间的传输,都需要经过CPU,而频繁的中断处理会消耗较多的CPU时间

3.DMA方式

与“中断驱动方式”相比,DMA方式(Direct Memory Access,直接存储器存取,主要用于块设备的I/O控制)有这样发几个改进
数据的传送单位是“块”,不再是一个字,一个字的传送
②数据的流向从设备直接放入内存,或者从内存直接到设备,不再需要CPU作为“快递小哥”
③仅在传送一个或多个数据块的开始和结束时,才需要CPU干预
在这里插入图片描述
DMA控制器:
DR(Data Register,数据寄存器):暂存从设备到内存,或从内存到设备的数据
MAR(Memory Address Register,内存地址寄存器);在输入时,MAR表示数据应放到内存中的什么位置;输出时MAR表示要输出的数据放在内存中的什么位置
DC(Data Counter,数据结束器):表示剩余要读/写的字节数
CR(Command Register,命令/状态寄存器):用于存放CPU发来的I/O命令,或设备的状态信息
加粗样式
1.完成一次读/写操作的流程
在这里插入图片描述
2.CPU干预的频率
仅在传送一个或多个数据块的开始或结束时,才需要CPU干预
3.数据传送的单位
每次读/写一个或多个块(注意:每次读写的只能是连续的多个块,且这些块读入内存后在内存中也必须是连续的)
4.数据的流向(不再需要经过CPU
读操作(数据输入):I/O设备→内存
写操作(数据输出):内存→I/O设备
5.主要缺点和主要优点
优点:数据以块为单位,CPU介入频率进一步降低,数据的传输不再需要先经过CPU再写入内存,数据传输效率进一步增加。CPU和I/O设备的并行性得到提升
缺点:CPU每发出一条指令,只能读/写一个或多个连续的数据块

4.通道控制方式

通道:一种硬件,可以理解为是“弱鸡版的CPU”,通道可以识别并执行一系列通道指令
与CPU相比,通道可以执行的指令很单一,并且通道程序是放在主机内存中的,也就是说通道与CPU共享内存
在这里插入图片描述
1.完成一次读/写的流程
加粗样式
2.CPU干预的频率
较低,通道会根据CPU的知识执行相应的通道程序,只有完成一组数据块的读/写后才需要发出中断信号,请求CPU干预
3.数据传送的单位
每次读/写一组数据块
4.数据的流向(在通道方式的控制下进行
读操作(数据输入):I/O设备→内存
写操作(数据输出):内存→I/O设备
5.主要缺点和主要优点
缺点:实现复杂,需要专门的硬件通道支持
优点:CPU,通道,I/O设备可并行工作,资源利用率很高

5.总结

在这里插入图片描述
难点理解:
通道=弱鸡版CPU
通道程序=任务清单

5.1.3 I/O子系统的层次结构

在这里插入图片描述

1.用户层软件

库函数:用户层软件实现了与用户交换的接口,用户可以直接使用该层提供的,与I/O操作相关的库函数对设备进行操作
eg:printf(“hello world!”)
系统调用:用户层软件将用户请求翻译成格式化的I/O请求,并通过“系统调用”请求方操作系统内核的服务
eg:printf(“hello world”)会被翻译成等价的write系统调用,当然,用户层软件也会在系统调用时填入相应的参数
在这里插入图片描述

Windows操作系统向外提供的一系列系统调用,但是由于系统调用的格式严格,使用麻烦,因此在用户层上封装了一系列更方便的库函数接口供用户使用(Windows API)

2.设备独立性软件

设备独立性软件,又称为设备无关性软件,与设备的硬件特性无关的功能几乎都在这一层实现
主要实现的功能|:
①向上提供统一的调用接口(如read/write系统调用)
②设备的保护
原理类似于文件保护,设备被看作是一种特殊的文件,不同用户对各个文件的访问权限是不一样的,同理,对设备的访问权限也不一样
③差错处理
设备独立性软件需要对鞋设备的错误进行处理
④设备的分配与回收
⑤数据缓冲区管理
可以通过缓冲技术屏蔽设备之间数据交换单位大小和传输速度的差异
⑥建立逻辑设备名到物理设备名的映射关系,根据设备类型选择调用相应的驱动程序
用户或用户层软件发出I/O操作祥光系统调用的系统调用时,需要指明此次要操作的I/O设备的逻辑设备名(EG
:去学校打印店打印时,需要选择打印1/打印机2/打印机3,其实这些都是逻辑设备名
设备独立性软件需要通过”逻辑设备表(LUT:Logical unit Table)“来确定逻辑设备对应的物理设备,并找到该设备对应的设备驱动程序
在这里插入图片描述
操作系统可以用两种方式管理逻辑设备表(LUT):
第一种方式:整个系统只设置一张LUT,这就意味着所有与用户都不能使用相拥的逻辑设备名,因此这种方式只适用于单用户操作系统
第二种方式:为每一个用户创建一张LUT,各个用户使用的逻辑设备名可以重复,适用于多用户操作系统,系统会在用户登录时为其建立一个用户管理进程,而LUT就存放在用户管理进程的PCB中

3.设备驱动程序

设备驱动程序:
主要负责对硬件设备的具体控制,将上层发出的一系列命令(如read/write)转化为特定设备”能听得懂“的一系列操作,包括设备寄存器,检查设备状态等
硬件:
不同I/O设备有不同的硬件特性,具体细节只有设备的厂家才知道,因此厂家需要根据设备的硬件特性设计并提供相应的驱动程序
注:驱动程序一般会以一个独立进程的方式存在

思考:为什么不同的设备需要不同的设备驱动的程序?

各种种类各个品牌的设备I/O逻辑和构造不同
不同设备的内部设计硬件特性也不同,这些特性只有厂家才知道,因此厂家需提供与设备相对应的驱动程序,CPU执行驱动程序的指令序列,来完成设置设备寄存器,检查设备状态等工作

4.中断处理程序

当I/O任务完成时,I/O控制器会发发送一个中断信号,系统会根据中断信号类型 找到相应的中断处理程序并运行,中断处理程序的处理流程如下:
在这里插入图片描述

5.总结:

在这里插入图片描述
在这里插入图片描述

5.2 I/O核心子系统

5.2.1 I/O子系统概述

在这里插入图片描述

设备独立性软件,设备驱动程序,中断处理程序
属于操作系统的内核部分:
即”I/O系统“:或称”I/O核心子系统
因此I/O核心子系统要实现的功能其实就是这中间三层要实现的功能(参考上节)

考研中,我们需要重点理解和掌握的功能是:I/O调度,设备保护,假脱机技术(SPOOLing技术),设备分配和回收,缓冲区管理(即缓冲与高速缓存)

在这里插入图片描述
注:假脱机技术 (SPOOLing技术)需要请求"磁盘设备"的设备独立性软件的服务,因此一般来说假
设雀般来说是在用户层软件实现的,但是408大纲又将假脱机技术归为“I/O核心子系统”的功能,因此考试还是以大纲为准。

5.2.2 I/O调度概念

在这里插入图片描述
I/O调度:用某种算法确定一个好的顺序来处理各个I/O请求
如:磁盘调度(先来先服务算法,最短寻道优先算法,SCAN算法,C-SCAN算法,LOOK算法,C-LOOK算法)当多个磁盘I/O请求到来时,用某种调度算法确定满足I/O请求的顺序

同理:打印机等设备也可以使用先来先服务算法,优先级算法,短作业优先算法等算法来确定I/O调度顺序

5.2.3 高速缓存与缓冲区

1.什么是缓冲区?有什么作用?

缓冲区是一个存储区域,可以有专门的硬件寄存器组成,也可利用内存作为缓冲区
使用硬件作为缓冲区的成本较高,容量也较小,一般尽在对速度要求非常高的场合(如存储器管理中所有的联想寄存器 快表,由于对页表的访问频率极高,因此使用速度最快的联想寄存器来存放页表项的副本)
一般情况下,更多的是利用内存作为缓冲区,”设备独立性软件“的1缓冲区管理就是要组织管理好这些缓冲区

2.缓冲区有什么作用?

在这里插入图片描述
在这里插入图片描述
缓冲区的作用:
缓和CPU和I/O设备之间速度不匹配的矛盾
减少对CPU的中断频率,放宽对CPU中断响应时间的限制
解决数据粒度不匹配的问题
(如:输出进程每次可以生成一块数据,但I/O设备每次只能输出一个字符)
提高CPU和I/O设备之间的并行性

3.单缓冲:

假设某用户进程请求某种块设备读入若干块的数据。若采用单缓冲的策略,操作系统会在主存中为其分配一个缓冲区(若题目没有特别说明,一个缓冲区的大小就是一个块)
注意:当缓冲区数据非空时,不能往缓冲区冲入数据,只能从缓冲区把数据传出,当缓冲区为空时,可以往缓冲区冲入数据,单必须把缓冲区充满以后,才能从缓冲区把数据传出
在这里插入图片描述
常考题型:计算每处理一块数据平均需要多长时间?
技巧:假定一个初始状态,分析下次达到相同状态需要多少时间,这就是处理一次数据平均所需时间
在”单缓冲“题型中,可以假设初始状态为工作区满,缓冲区空
在这里插入图片描述
在这里插入图片描述

4.双缓冲

假设某用户进程请求某种块设备读入若干块的数据,若采用双缓冲的策略,操作系统会在主存中为其分配两个缓冲区(若题目没有特别说明,一个缓冲区的大小就是一个块)
双缓冲题目中,假设初始状态为:工作区空 ,其中一个缓冲区满,另一个缓冲区空
在这里插入图片描述
在这里插入图片描述
结论:采用双缓冲策略,处理一个数据块的平均耗时为Max(T,C+M)

5.使用单/双缓冲在通信时的区别

两台机器之间通信时,可以配置缓冲区用于数据的发送和接受
在这里插入图片描述
显然,若两个互相通信的机器只设置单缓冲区,在任意时刻只能实现数据的单向传输
在这里插入图片描述

若两个互相通信的机器设置双缓冲区,则统一时刻可以实现双向的数据传输
注:管道通信中的”管道“其实就是缓冲区,要实现数据的双向传输,必须设置两个管道

6.循环缓冲区

将多个大小相等的缓冲区连接成一个循环队列
注:以下图示,橙色代表已经充满数据的缓冲区,绿色代表空缓冲区
在这里插入图片描述

7.缓冲池

缓冲池由系统中共用的缓冲区组成,这些缓冲区按使用情况可以分为:空缓冲队列,装满输入数据的缓冲队列(输入队列),装满输出数据的缓冲队列(输出队列)
另外,根据一个缓冲区在实际运算中扮演的功能不同,又设置了四种工作缓冲区:用于收容输入数据的工作缓冲区(hin),用于提取输入数据的工作缓冲区(sin),用于收容输出数据的工作缓冲区(hout),用于提取输出数据的工序缓冲区(sout)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5.2.4 设备分配与回收

1.设备分配时应该考虑的因素

设备的固有属性 设备分配算法 设备分配中的安全性
设备的固定属性可分为三种:独占设备,共享设备,虚拟设备
独占设备—一个时段只能发呢配给一个进程(如打印机)
共享设备----可同时分配给多个进程使用(如磁盘),各进程往往是宏观上同时共享使用设备,而微观上交替使用
虚拟设备—采用SPOOLing技术将独占设备改造成虚拟的共享设备,可同时分配给多个进程使用(如采用SPOOLing技术实现共享的共享打印机)
设备的分配算法:
先来先服务 优先级高者优先 短任务优先。。
设备运行的安全性来考虑,设备分配有两种方式:
安全分配方式:为进程分配一个设备后就将进程阻塞,本次I/O完成后才将进程唤醒,(eg:考虑进程请求打印机打印输出的例子)
一个时段内每个进程只能使用一个设备:
优点:破坏了“请求和保持”条件,不会死锁
缺点:对于一个进程来说,CPU和I/O设备只能串行工作
不安全分配方式:进程发出I/O请求后,系统为其分配I/O设备,进程可继续执行,之后还可以发出新的I/O请求,只有某个I/O请求达不到满足时才将进程堵塞
一个进程可以同时使用多个设备:
优点:进程的计算任务和I/O任务可以并行处理,使进程迅速推进
缺点:有可能发生死锁(死锁避免,死锁的检测和解除)

2.静态分配和动态分配

静态分配:进程运行前为其分配全部所需的资源,运行结束后归还资源
(破坏了“请求和保持”条件,不会发生死锁)
动态分配:进程运行过程中动态申请设备资源

3.设备分配管理中的数据结构

“设备,控制器,通道”之间的关系:
在这里插入图片描述
一个通道可以控制多个设备控制器,每个设备控制器可以控制多个设备

设备控制表(DCT):系统为每个设备配置一张DCT,用于记录设备情况
在这里插入图片描述
注:“进程管理”章节中曾静提到过“系统会根据阻塞原因不同,将进程PCB挂到不同的阻塞队列中”

控制器控制表(COCT):每个设备控制器都会对应一张COCT,操作系统根据COCT的信息对控制器进行操作和管理
在这里插入图片描述
通道控制表(CHCT):每个通道都会对应一张CHCT,操作系统根据CHCT的信息对通道进行操作和管理
在这里插入图片描述
系统设备表(SDT):记录了系统中全部设备的情况,每个设备对应一个表目
在这里插入图片描述

4.设备分配的步骤

①根据进程请求的物理设备名查找SDT(注:物理设备名使进程请求分配设备时提供的参数)
在这里插入图片描述
②根据SDT找到DCT,若设备忙碌则将进程PCB挂到设备等待队列中,不忙碌则将设备分配给进程
*加粗样式
③根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程
在这里插入图片描述
④根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程
在这里插入图片描述
注:只有设备,控制器,通道三者都分配成功时,这次分配才算成功,之后便可启动I/O设备进行数据传送
缺点:
①用户编程时必须使用”物理设备名“,底层细节对用户不透明,不方便编程
②若换了一个物理设备,则程序无法运行
③若进程球的物理设备正在忙碌,则即使系统中还有同类型的涉笔,进程也必须堵塞等待
改进方法:建立逻辑设备名和物理设备名的映射机制,用户编程时只需提供逻辑设备名

5.设备分配步骤的改进

①根据进程请求的逻辑设备名查看SDT (注:用户编程是提供的逻辑设备名其实就是"设备类型"
②查找SDT,找到用户进程指定类型的,并且空闲的设备,将其分配给该进程,操作系统在逻辑设备表(LUT)新增一个表项
在这里插入图片描述
③根据DCT找到COCT,若控制器忙碌则将进程PCB挂到控制器等待队列中,不忙碌则将控制器分配给进程
④根据COCT找到CHCT,若通道忙碌则将进程PCB挂到通道等待队列中,不忙碌则将通道分配给进程

设备独立性软件需要通过”逻辑设备表(LUT:Logical unit Table)“来确定逻辑设备对应的物理设备,并找到该设备对应的设备驱动程序
在这里插入图片描述
在这里插入图片描述

操作系统可以用两种方式管理逻辑设备表(LUT):
第一种方式:整个系统只设置一张LUT,这就意味着所有与用户都不能使用相拥的逻辑设备名,因此这种方式只适用于单用户操作系统
第二种方式:为每一个用户创建一张LUT,各个用户使用的逻辑设备名可以重复,适用于多用户操作系统,系统会在用户登录时为其建立一个用户管理进程,而LUT就存放在用户管理进程的PCB中
在这里插入图片描述

5.2.5 假脱机技术(SPOOLing技术)

1.什么是脱机技术?

手工操作阶段:
在这里插入图片描述
批处理阶段引入了脱机输入/输出技术(用磁带完成)
引入脱机技术后,缓解了CPU与慢速I/O设备的速度矛盾,另一方面,即使CPU在忙碌,也可以提前将数据输入到磁带,即使慢速的输出设备正在忙碌,也可以提前将数据输出到磁带
在这里插入图片描述
Tips:为什么称为“脱机”—脱离主角的控制进行的输入/输出操作

2.假脱机技术—输入井和输出井

“假脱机技术”又称“SPOOLing技术”使用软件的方式模拟脱机技术,SPOOLing系统的组成如下:
在这里插入图片描述
在磁盘上开辟出了两个存储区域—“输入井”和“输出井”
“输入井”模拟脱机输入时的磁带,用于收容I/O设备设备输入的数据。
“输出井”模拟脱机输出时的磁带,用于收容用户进程输出的数据
在这里插入图片描述
“输入进程”模拟脱机输入时的外围控制机
“输出进程”模拟脱机输出时的外围控制机
在这里插入图片描述

要实现SPOOLing技术,必须需要多道程序技术的支持,系统会建立“输入进程”和“输出进程”
在这里插入图片描述

3.共享打印机原理分析

独占式设备—只允许各个进程串行使用的设备,一段时间内只能满足一个进程的请求
共享设备—允许多个进程“同时”使用的设备(宏观上同时使用,微观上可能时交替使用),可以满足多个进程的使用请求
在这里插入图片描述
在这里插入图片描述
虽然系统中只有一个打印机,但是每个进程提出打印请求时,系统都会为在输出井中为其分配一个存储区(相当于分配了一个逻辑设备),使每个用户进程都觉自己在独占一台打印机,从而实现对打印机的共享
SPOOLing技术可以把一台为物理设备虚拟成逻辑上的多台设备,可将独占式设备改造成共享设备
在这里插入图片描述

5.2.6 文件保护

操纵系统需要实现文件保护功能,不同的用户对各个文件的访问权限(如:只读,读和写等)
在UNIX系统中,设备被看作是一种特殊的文件,每个设备也会有对应的FCB,当用户请求访问某个设备时,系统根据FCB中记录的信息来判断该用户是否有有相应的访问权限,以此实现“设备保护”的功能(参考文件保护小节)

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值