3、内存管理

文章目录

1、内存的基础知识

image-20230206220920770

1.1、什么是内存?

内存是用于存放数据的硬件。程序执行前需要先放到内存中才能被CPU处理。


思考:在多道程序环境下,系统中会有多个程序并发执行,也就是说会有多个程序的数据需要同时放到内存中。

  • 那么,如何区分各个程序的数据是放在什么地方的呢?

方案:给内存的存储单元编地址

image-20230206222406228

内存中也有一个一个的 “小房间”,每个小房间就是一个 “存储单元”

内存地址从 0 开始,每个地址对应一个存储单元

如果计算机 “按字节编址”,则每个存储单元大小为 1 字节,即 1B ,即 8 个二进制位

如果字长为 16 位的计算机 “按字编址” ,则每个存储单元大小为 1个字;每个字的大小为 16 个二进制位


例如:一台手机/电脑有 4GB 内存,是什么意思?

  • 是指该内存中可以存放 4 ∗ 2 30 4 * 2^{30} 4230个字节。如果是按字节编址的话,也就是有 4 ∗ 2 30 = 232 4*2^{30} = 232 4230=232个“小房间”

  • 这么多“小房间”,需要 2 32 2^{32} 232 个地址才能一一标识,所以地址需要用 32 32 32 个二进制位来表示( 0   2 32 − 1 0~2^{32} -1 0 2321)

:有的题目会告诉我们内存的大小,让我们确定地址长度应该是多少(即要多少个二进制位才能表示相应数目的存储单元)

1.2、进程的运行原理–指令

image-20230206223649297

image-20230206223903047

image-20230206224032967

  • 上述是为了直观的体会指令运行的大致流程

可见,我们写的代码要翻译成 CPU 能识别的指令。这些指令会告诉 CPU 应该去内存的哪个地址存/取数据这个数据应该做什么样的处理。

在这个例子中,指令中直接给出了变量 x 的实际存放地址(物理地址)。

但实际在生成机器指令的时候并不知道该进程的数据会被放到什么位置。

  • 所以编译生成的指令中一般是使用逻辑地址(相对地址)

1.3、逻辑地址 & 物理地址

宿舍四个人一起出去旅行,四个人的学号尾号分别是 0、1、2、3。
住酒店时酒店给你们安排了4个房号相连的房间。四个人按学号递增次序入住房间。比如0、1、2、3号同学分别入住了 5、6、7、8 号房间。

四个人的编号 0、1、2、3 其实是一个“相对位置”,而各自入住的房间号是一个“绝对位置”。

只要知道 0 号同学住的是房号为 N 的房间,那么 M 号同学的房号一定是 N+M

也就是说,只要知道各个同学的“相对位置”和“起始房号”,就一定可以算出所有同学的“绝对位置”

image-20230206224502986

指令中的地址也可以采用这种思想。编译时产生的指令只关心 “相对地址”,实际放入内存中时再想办法根据起始位置得到“绝对地址”。

Eg:编译时只需确定变量 x 存放的相对地址是 100(也就是说相对于进程在内存中的起始地址而言的地址)。CPU想要找到 x 在内存中的实际存放位置,只需要用进程的起始地址 +100 即可。

相对地址又称逻辑地址,绝对地址又称物理地址。

1.4、从写程序到程序运行

image-20230206230620499

编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)

链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块

装入(装载):由装入程序将装入模块装入内存运行

1.5、装入模块到运行

image-20230206230833405

image-20230206231333786

装入的三种方式;(用三种不同的方法完成逻辑地址到物理地址的转换):

  1. 绝对装入
  2. 静态重定位
  3. 动态重定位

1.6、装入的三种方式–绝对装入

绝对装入:在编译时,如果知道程序将放到内存中的哪个位置,编译程序将产生绝对地址的目标代码

  • 装入程序按照装入模块中的地址,将程序和数据装入内存。

Eg:如果知道装入模块要从地址为 100 的地方开始存放…

image-20230206231702964

绝对装入只适用于单道程序环境。

  • 因为单道程序环境只运行同一时刻只运行一个程序运行,所以每一个程序从什么时候开始存放可以刚开始就约定好
  • 在单道程序阶段,此时没有产生操作系统

程序中使用的绝对地址,可在编译或汇编时给出,也可由程序员直接赋予。

  • 通常情况下都是编译或汇编时再转换为绝对地址。

1.7、装入的三种方式–静态重定位

静态重定位:又称可重定位装入。

编译、链接后的装入模块的地址都是从 0 开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。

可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行 “重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)

image-20230206234059550

静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。

作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间。

  • 若装入之后程序所在的内存地址发生改变,则一开始写入的地址就会变成一种错误的地址

用于早期的多道批处理操作系统

1.8、装入的三种方式–动态重定位(重定位寄存器)

动态重定位:又称动态运行时装入。编译、链接后的装入模块的地址都是从 0 开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。

因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器的支持。


思想:模块在内存中的的 “起始地址”+目标内存单元相对于起始位置的 “偏移量”

image-20230206234526157


image-20230206234716942

采用动态重定位时允许程序在内存中发生移动。

  • 例如:若把程序的地址改为从 200 开始,就可以将重定位寄存器中的起始位置的值改为 200 即可

并且可将程序分配到不连续的存储区中;在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存;便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间。


现代操作系统


1.9、链接的三种方式

1.9.1、静态链接

静态链接:在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开。

image-20230206235159563

1.9.2、装入时动态链接

装入时动态链接:将各目标模块装入内存时,边装入边链接的链接方式。

image-20230206235236871

1.9.3、运行时动态链接

运行时动态链接:在程序执行中需要该目标模块时,才对它进行链接

其优点是便于修改和更新,便于实现对目标模块的共享。

link

1.10、整体框架

image-20230206235937944

2、内存管理的概念

操作系统作为系统资源的管理者,当然也需要对内存进行管理,要管些什么呢?

2.1、内存空间的分配与回收

操作系统负责内存空间的分配与回收

image-20230207002018111

2.2、内存空间的扩充

操作系统需要提供某种技术从逻辑上对内存空间进行扩充

image-20230207002220575

2.3、地址转换

操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换

为了使编程更方便,程序员写程序时应该只需要关注指令、数据的逻辑地址。

而逻辑地址到物理地址的转换(这个过程称为地址重定位)应该由操作系统负责,

  • 这样就保证了程序员写程序时不需要关注物理内存的实际情况。

image-20230207003040831

2.4、内存保护

操作系统需要提供内存保护功能。保证各进程在各自存储空间内运行,互不干扰

让各个进程只能访问自己的内存空间,而不能访问别的进程空间

image-20230207003315502

内存保护可采取两种方法:

3.2.4.1、上、下限寄存器

方法一:在 CPU 中设置一对上、下限寄存器,存放进程的上、下限地址。

进程的指令要访问某个地址时,CPU 检查是否越界。

image-20230207003501301

可见上、下限寄存器只支持连续的分配内存

3.2.4.2、重定位寄存器和界地址寄存器

方法二:采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检查。

重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址。

image-20230207003840441

3.2.5、整体框架

image-20230207004135196

3、覆盖 & 交换技术

image-20230207215243549

3.1、覆盖技术(同一进程)

早期的计算机内存很小,比如 IBM 推出的第一台 PC 机最大只支持 1MB 大小的内存。因此经常会出现内存大小不够的情况。

后来人们引入了覆盖技术,用来解决 “程序大小超过物理内存总和” 的问题


覆盖技术的思想:将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。

3.1.1、固定区 & 覆盖区

内存中分为一个 “固定区” 和若干个 “覆盖区”。

  • 需要常驻内存的段放在 “固定区” 中,调入后就不再调出(除非运行结束)
    • 比如说 main 函数(程序的入口),将该模块放入到固定区中
  • 不常用的段放在 “覆盖区”,需要用到时调入内存,用不到时调出内存

image-20230207210425684


image-20230207210722895

按照自身逻辑结构,让那些不可能同时被访问的程序段共享同一个覆盖区


必须由程序员声明覆盖结构,操作系统完成自动覆盖。

缺点:对用户不透明,增加了用户编程负担。

  • 操作系统不知道哪个模块与哪个模块有关系

覆盖技术只用于早期的操作系统中,现在已成为历史

3.2、交换技术(不同进程)

交换(对换)技术的设计思想(就是中级调度):

  • 内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)

image-20230207213218097

中级调度(内存调度),就是要决定将哪个处于挂起状态的进程重新调入内存


暂时换出外存等待的进程状态为挂起状态(挂起态,suspend)

挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态

image-20230121203748888


3.2.1、对换区 & 文件区

image-20230207214344373

① 应该在外存(磁盘)的什么位置保存被换出的进程?

具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分。

文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;

对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。

  • 由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。

总之,对换区的 I/O 速度比文件区的更快。


② 什么时候应该交换?

交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停

  • 例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;
  • 如果缺页率明显下降,就可以暂停换出。

③ 应该换出哪些进程?

可优先换出阻塞进程;可换出优先级低的进程;

  • 为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间…

(注意:PCB会常驻内存,不会被换出外存)

4、连续分配管理方式

image-20230207231045485

4.1、单一连续分配(有内部碎片)

image-20230207215654242

在单一连续分配方式中,内存被分为系统区和用户区。

系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。

内存中只能有一道用户程序,用户程序独占整个用户区空间。

  • 即使用户区还有很大的内存空间,也不会分配给其他的进程,独占

优点:

  • 实现简单;无外部碎片;
  • 可以采用覆盖技术扩充内存
  • 不一定需要采取内存保护( eg:早期的PC操作系统 MS-DoS)。
    • 即使该用户程序出现问题了,也只会影响自身。即使越界影响到了系统,重启过后也可以进行修复,因为内存中只有一个进程,很容易找出问题所在。

缺点:

  • 只能用于单用户、单任务的操作系统;
  • 有内部碎片;
  • 存储器利用率极低

内部碎片:分配给某进程的内存区域中,若有些部分没有用上,就是 “内部碎片”

image-20230207220303633

4.2、固定分区分配

20 世纪 60 年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,

于是将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。

4.2.1、分区大小(不)相等

image-20230207220529882

分区大小相等

  • 缺乏灵活性,
    • 因为每个分区只能装入一道作业,所以本来占用很小内存的进程就会占用一个大的多余的分区
    • 若一个进程所需内存很大的话,那么该进程就不能装入该分区。
    • 或者说采用覆盖技术在逻辑上扩充分区的大小,则会占用很大的系统开销
  • 但是很适合用于用一台计算机控制多个相同对象的场合
    • 比如:钢铁厂有 n 个相同的炼钢炉,就可把内存分为 n 个大小相等的区域存放 n 个炼钢炉控制程序)

分区大小不等

  • 增加了灵活性,可以满足不同大小的进程需求。
  • 根据常在系统中运行的作业大小情况进行划分
    • 比如:划分多个小分区、适量中等分区、少量大分区

4.2.2、分区说明表(有内部碎片)

操作系统需要建立一个数据结构――分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。

每个表项包括对应分区的大小、起始地址、状态(是否已分配)。

image-20230207221414176

当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表。从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态为 “己分配” 。


**优点:**实现简单,无外部碎片。

缺点

  • 当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能;
  • 会产生内部碎片,内存利用率低。

4.3、动态分区分配(有外部碎片

动态分区分配又称为可变分区分配。

这种分配方式不会预先划分内存分区,而是在进程装入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。

因此系统分区的大小和数目是可变的。

动态分区分配没有内部碎片,但是有外部碎片。

动态分区分配使用的是动态重定位技术实现装入

  • 即:在程序运行时根据需求动态的装入

eg:假设某计算机内存大小为 64MB,系统区 8MB ,用户区共 56 MB…)

image-20230207222152204

  1. 系统要用什么样的数据结构记录内存的使用情况?
  2. 当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
  3. 如何进行分区的分配与回收操作?

4.3.1、空闲分区表/链

① 系统要用什么样的数据结构记录内存的使用情况?

image-20230207222633471

空闲分区表:每个空闲分区对应个表项。

  • 表项中包含分区号、分区大小、分区起始地址等信息

空闲分区链:每个分区的其实部分和末尾部分分别设置前向指针和后向指针。

  • 其实部分出还可记录分区大小等信息

4.3.2、多个空闲分区选择哪一个分配?

② 当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?

image-20230207222802442

把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配给该作业。

由于分配算法算法对系统性能有很大的影响,因此人们对它进行了广泛的研究。

4.3、空闲分区的分配与回收

③ 如何进行分区的分配与回收操作?

4.3.1、分配

假设系统采用的数据结构是 “空闲分区表” 如何分配?

image-20230207223051180


image-20230207223308960

4.3.1、回收

假设系统采用的数据结构是 “空闲分区表” 如何回收?

情况一:回收区的后面有一个相邻的空闲分区

image-20230207223416365


情况二:回收区的前面有一个相邻的空闲分区

image-20230207223629620


情况三:回收区的前、后有一个相邻的空闲分区

image-20230207223730854


情况四:回收区的前、后有都没有相邻的空闲分区

image-20230207223918992


:各表项的顺序不一定按照地址递增顺序排列,具体的排列方式需要依据动态分区分配算法来确定

例如:对于空闲分区表采用动态的扩充表格,而对于空闲分区链的话采用头/尾插法或者定位至中间插入


4.3、内部碎片 & 外部碎片

内部碎片,分配给某进程的内存区域中,如果有些部分没有用上

外部碎片,是指内存中的某些空闲分区由于太小而难以利用

  • 因为各个进程需要的都是一整个连续的空闲内存,
  • 所以若这个空闲分区太小,那么任何一个空闲分区不能满足进程的需求

内存碎片:分配出去没有用上。外部碎片:没有分配出去但没法用


image-20230207225242139

上图所示,若进程 2 (14 MB)的进程又可以执行了

  • 此时可以发现,内存的任何一个区域都不能满足进程 2 的需求

所以就产生了外部碎片。


如果内存中空闲空间的总和本来可以满足某进程的要求,但由于进程需要的是一整块连续的内存空间

  • 因此这些 “碎片” 不能满足进程的需求。

例如:上述所示的进程 2(14 MB),内存中零散的 “碎片” 总和为 14 MB,本来可以满足进程 2,但是不是连续的,所以满足不了进程 2 的需求


可以通过紧凑(拼凑,Compaction)技术来解决外部碎片。

4.3.1、紧凑技术解决外部碎片

image-20230207230151788

“紧凑” 之后的处理

  • 将各个进程的起始地址修改掉,起始地址一般来说是存放在进程的 PCB 当中
  • 当进程上 CPU 运行之前,会把进程的起始地址放入到重定位寄存器(基址寄存器)中

5、动态分区分配算法

算法算法思想分区排列顺序优点缺点
首次适应从头到尾寻找合适的分区空闲分区以地址递增顺序排列综合看性能最好。算法开销小,回收分区后一般不需要对空闲分区队列重新排序可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。
最佳适应优先使用更小的分区,以保留更大的分区空闲分区以容量递增次序排列会有更多的大分区被保留下来,更能满足大进程需求会产生很多太小的、难以利用的碎片;算法开销大,回收分区后可能需要对空闲分区队列重新排序
最坏适应优先使用更大的分区,以防止产生太小的不可用的碎片(外部碎片)空闲分区以容量递减顺序排列可以减少难以利用的小碎片大分区容易被用完,不利于大进程;算法开销大(原因同上)
邻近适应右首次适应演变而来,每次从上次查找结束位置开始查找空闲分区以地址递减顺序排列不用每次都从低地址的小分区开始检索。算法开销小(原因同首次适应算法)会使高地址的大分区也被用完

5.1、首次适应算法

算法思想:每次都从低地址开始查找,找到第一个能满足大小的空闲分区。

如何实现:空闲分区以地址递增的次序排列。

  • 每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。

image-20230207233859035

缺点:可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。

5.2、最佳适应算法

算法思想:由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。

因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片的空闲区

  • 即,优先使用更小的空闲区。

如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。

image-20230208000543622

缺点:每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。

image-20230208002734365

5.3、最坏(大)适应算法

又称最大适应算法(Largest Fit)

算法思想:为了解决最佳适应算法的问题――即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。

如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区

image-20230208003005903

缺点:每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”到达,就没有内存分区可用了。

5.4、邻近适应算法

算法思想:首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。

如果每次都从上次查找结束的位置开始检索,就能解决上述问题。

如何实现:空闲分区按地址递增次序链接。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。

image-20230208003518237

首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。

  • 但是这种规则也决定了当低地址部分有更小的分区可以满足需求时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来(最佳适应算法的优点)

邻近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大分区更可能被使用,划分为小分区,最后导致无大分区可用(最大适应算法的缺点)


综合来看,四种算法中,首次适应算法的效果反而更好

6、基本分页存储管理

image-20230208204455224

6.1、连续分配方式的缺点

考虑支持多道程序的两种连续分配方式:

  1. 固定分区分配:
    • 缺乏灵活性,会产生大量的内部碎片,内存的利用率很低。
  2. 动态分区分配:
    • 会产生很多外部碎片,虽然可以用 “紧凑” 技术来处理,但是 “紧凑” 的时间代价很高

image-20230208203958999


如果允许将一个进程分散地装入到许多不相邻的分区中,便可充分地利用内存,而无需再进行“紧凑”

基于这一思想,产生了 “非连续分配方式” ,或者称为 “离散分配方式”。


连续分配:为用户进程分配的必须是一个连续的内存空间。

非连续分配:为用户进程分配的可以是一些分散的内存空间。


6.2、把 “固定分区分配” 改造为 “非连续分配版本”

假设进程 A 大小为 23MB,但是每个分区大小只有 10MB ,如果进程只能占用一个分区,那显然放不下。

解决思路:如果允许进程占用多个分区,那么可以把进程拆分成 10MB + 10MB + 3MB 三个部分,再把这三个部分分别放到三个分区中(这些分区不要求连续)…

进程 A 的最后一个部分是 3MB,放入分区后会产生 7MB 的内部碎片。
如果每个分区大小为 2MB ,那么进程 A 可以拆分成 11*2MB +1MB 共 12 个部分,只有最后一部分 1MB 占不满分区,会产生 1MB 的内部碎片。

显然,如果把分区大小设置的更小一些,内部碎片会更小,内存利用率会更高。

image-20230208204818283

6.2、基本分页存储管理基本概念

基本分页存储管理的思想一一把内存分为一个个相等的小分区,再按照分区大小把进程拆分成一个个小部分


6.2.1、页框(内存块、物理块) & 页面,内部碎片

将内存空间分为一个个大小相等的分区(比如:每个分区 4KB ),每个分区就是一个 “页框”,或称 “页帧”、“内存块”、“物理块”。每个页框有一个编号,即 “页框号”(或者 “内存块号”、“页帧号”、“物理块号”)

  • 页框号从 0 开始

用户进程的地址空间也分为与页框大小相等的一个个区域,称为 “页” 或 “页面” 。

  • 每个页面也有一个编号,即 “页号” ,页号也是从 0 开始

image-20230208215308403

:进程的最后一个页面可能没有一个页框那么大。因此,页框不能太大,否则可能产生过大的内部碎片

  • 例如:进程 A 大小为 15 KB,则最后一个页面大小为 3 KB。3 KB 的页面放入到 4KB 的页框里
  • 显然会产生1 KB 内部碎片

操作系统以页框为单位为各个进程分配内存空间。

进程的每个页面分别放入一个页框中。

  • 也就是说,进程的页面与内存的页框有一一对应的关系。

各个页面不必连续存放,也不必按先后顺序来,可以放到不相邻的各个页框中。

image-20230208215505953


6.2.2、如何实现地址的转换

将进程地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换?


进程在内存中连续存放时,操作系统是如何实现逻辑地址到物理地址的转换的?

image-20230206234526157

image-20230206234716942

思想:模块在内存中的的 “起始地址”+目标内存单元相对于起始位置的 “偏移量”


如果采用分页技术,应该如何实现地址转换?

image-20230208221800850


image-20230208221918222

逻辑地址为 80 80 80 的内存单元:

应该在 1 号页,该页在内存中的起始位置为 450,逻辑地址为 80 80 80 的内存单元相对于该页的起始地址(50)而言,“偏移量”应该是 30 。

实际物理地址 = 450 + 30 = 480 = 450 + 30 = 480 =450+30=480


  1. 要算出逻辑地址对应的页号
  2. 要知道该页号对应页面在内存中的起始地址
  3. 要算出逻辑地址在页面内的“偏移量”
  4. 物理地址 = 页面始址+页内偏移量

如何计算:

  • 页号 = 逻辑地址 / 页面长度(取除法的整数部分)

  • 页内偏移量 = 逻辑地址 % 页面长度(取除法的余数部分)

  • 页面在内存中的起始位置:操作系统需要用某种数据结构记录进程各个页面的起始位置。

页号 = 80 / 50 = 1

页内偏移量= 80 % 50 = 30

1 号页在内存中存放的起始位置 450

物理地址 = 页面始址+页内偏移量 = 450 + 30 = 480


为了方便计算页号、页内偏移量,页面大小一般设为 2 的整数幂

假设用 32 个二进制位表示逻辑地址,页面大小为 212 B= 4096 B = 4 KB

0 号页的逻辑地址空间应该是 0~4095 ,用二进制表示应该是:

  • 00000000000000000000000000000000 ~ 00000000000000000000111111111111

1号页的逻辑地址空间应该是 4096~8191,用二进制表示应该是:

  • 00000000000000000001000000000000 ~ 00000000000000000001111111111111

2号页的逻辑地址空间应该是 8192~12287,用二进制表示应该是:

  • 00000000000000000010000000000000 ~ 00000000000000000010111111111111

Eg:逻辑地址 2,用二进制表示应该是 00000000000000000000000000000010

  • 若 0 号页在内存中的起始地址为 X,则逻辑地址 2 对应的物理地址应该是 X+ 000000000010

Eg:逻辑地址 4097,用二进制表示应该是 00000000000000000001000000000001

  • 若 1 号页在内存中的起始地址为 X,则逻辑地址 4097 对应的物理地址应该是 X + 000000000001

结论:如果每个页面大小为 2K B,用二进制数表示逻辑地址

  • 则末尾 K 位即为 页内偏移量,其余部分就是页号

6.2.3、逻辑地址结构

分页存储管理的逻辑地址结构如下所示:

image-20230209221819610

地址结构包含两个部分:前一部分为页号,后一部分为页内偏移量 W

在上图所示的例子中,地址长度为 32 位,

  • 其中 0 ~ 11 位为 “页内偏移量”,或称 “页内地址 ”;
  • 12~31 位为 “页号”。

如果有 K 位表示 “页内偏移量” ,则说明该系统中一个页面的大小是 2K 个内存单元

如果有 M 位表示 “页号”,则说明在该系统中,一个进程最多允许有 2M 个页面


分页存储管理中,如何实现地址转换?

  1. 要算出逻辑地址对应的页号
  2. 要知道该页号对应页面在内存中的起始地址
  3. 要算出逻辑地址在页面内的 “偏移量”
  4. 物理地址 = 页面始址+页内偏移量

若用十进制数表示逻辑地址,可以用:

  • 页号 = 逻辑地址 / 页面长度(取除法的整数部分)

  • 页内偏移量 = 逻辑地址 % 页面长度(取除法的余数部分)


6.2.4、页表、页表项

为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。

image-20230209223124406

每个页表项的长度是相同的,页号是 “隐含” 的

Eg:假设某系统物理内存大小为 4GB,页面大小为 4KB,则每个页表项至少应该为多少字节?

4GB = 232 B,4KB = 212 B

因此 4GB 的内存总共会被分为 232/ 212 = 220 个内存块(页框),因此内存块号的范围应该是 0 ~ 220 - 1

因此至少要 20 个二进制位才能表示这么多的内存块号,因此至少要 3 个字节才够

  • 每个字节 8 个二进制位,3 个字节共 24 个二进制位

image-20230209231704773

各页表项会按顺序连续地存放在内存中

如果该页表在内存中存放的起始地址为 X

M 号页对应的页表项一定是存放在内存地址为 X+3 * M 。因此,页表中的“页号”可以是“隐含”的。

只需要知道页表存放的起始地址和页表项长度,即可找到各个页号对应的页表项存放的位置

  • 在本例中,一个页表项占 3B,如果进程由 n 个页面,则该进程的页表总共会占 3*n 个字节

6.2.5、整体框架

image-20230209232412018

6.3、基本地址变换机构

用于实现逻辑地址到物理地址转换的一组硬件机构


基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址。

6.3.1、页表寄存器(PTR)

通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址 F 和 页表长度 M。

  • 页表长度 M这个进程当中有 M 个页表项(页面)

进程未执行时,页表的始址和页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。

注意:页面大小是2的整数幂

6.3.2、逻辑地址到物理地址的变换过程 !

设页面大小为 L ,逻辑地址 A 到物理地址 E 的变换过程如下:

image-20230209233442364


image-20230209234326417

① 计算页号 Р 和页内偏移量 w

  • 如果用十进制数手算,则 P = A / L, W = A % L;但是在计算机实际运行时,逻辑地址结构是固定不变的,因此计算机硬件可以更快地得到二进制表示的页号、页内偏移量

② 比较页号 P 和页表长度 M,若 P > M,则产生越界中断,否则继续执行。(注意:页号是从 0 开始的,而页表长度至少是 1 ,因此 P = M 时也会越界)

③ 页表中页号 P 对应的页表项地址 = 页表起始地址 F + 页号 p * 页表项长度,取出该页表项内容 b,即为内存块号。

  • 页表项地址对应的映射为物理地址

注意区分页表项长度、页表长度、页面大小的区别。

  • 页表长度指的是这个页表中总共有几个页表项,即该进程总共有几个页面
  • 页表项长度指的是每个页表项占多大的存储空间,相对于页表
  • 页面大小指的是一个页面占多大的存储空间,相对于进程

image-20230210223856789

④ 计算 物理地址 E = b * L + W,期得到的物理地址 E 去访存。

  • b : 物理块号;L页面大小(如上图所示)

  • 如果内存块号、页面偏移量是用二进制表示的,那么把二者拼接起来就是最终的物理地址了

上述为什么

动手验证:假设页面大小 L= 1KB,最终要访问的内存块号 b = 2,页内偏移量 W = 10231

① 尝试用 E= b * L + W 计算目标物理地址。

② 尝试把内存块号、页内偏移量用二进制表示,并把它们拼接起来得到物理地址。

  • 对比 ①② 的结果是否一致

6.3、例子

例:若页面大小 L1K 字节,页号 2 对应的内存块号 b = 8,将逻辑地址 A = 2500 转换为物理地址 E

等价描述:某系统按字节寻址,逻辑地址结构中,页内偏移量占 10 位,页号 2 对应的内存块号 b = 8,将逻辑地址 A = 2500 转换为物理地址 E

  • 页内偏移量占 10 位 :说明一个页面的大小 : 210 B = 1KB

image-20230209221819610


页面大小为 L :1K = 1024 B

逻辑地址 A = 2500

  • 所对应的页号A / L = 2500 / 1024 = 2(整除)

  • 所对应的页内偏移量A % L = 2500 % 1024 = 452

根据题中条件可知,页号 2 没有越界,其存放的内存块号 b = 8

页面(页框)始址 = 页面大小 * 内存块号 = L * b = 8 K = 8192 B

物理地址 E = 页面始址 + 偏移量 = 8192 B + 452 = 8644

image-20230210223853475

注:最好记住该图, 可以更方便的理解


在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。

因此,页式管理中地址是一维的。

  • 即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位。

6.4、页表项大小的进一步探讨

每个页表项的长度是相同的,页号是 “隐含” 的

Eg:假设某系统物理内存大小为 4GB,页面大小为 4KB,则每个页表项至少应该为多少字节?

4GB = 232 B,4KB = 212 B

因此 4GB 的内存总共会被分为 232/ 212 = 220 个内存块(页框),因此内存块号的范围应该是 0 ~ 220 - 1

因此至少要 20 个二进制位才能表示这么多的内存块号,因此至少要 3 个字节才够

  • 每个字节 8 个二进制位,3 个字节共 24 个二进制位

image-20230209231704773

各页表项会按顺序连续地存放在内存中

如果该页表在内存中存放的起始地址为 X

M 号页对应的页表项一定是存放在内存地址为 X+3 * M


一个页面为 4 KB ,则每个页框可以存放 4096 / 3 = 1365 个页表项,但是这个页框会剩余 4096 % 3=1B 页内碎片

因此,1365 号页表项存放的 地址为 X+3 * 1365 + 1

image-20230210011436662

如果每个页表项占 4 字节,则每个页框刚好可存放 1024 个页表项

1024 号页表项虽然是存放在下一个页框中的,但是它的地址依然可以用 X + 4 * 1024 得出

image-20230210011938051

结论:理论上,页表项长度为 3B 即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项。


image-20230210224212290


6.5、图形记忆 !

image-20230209234326417


image-20230210223847903

进程页表通常是装在连续的内存块中的

image-20230210224153243

注:最好记住这 2 图, 可以更方便的理解


其实就是先从内存找到页表,再从页表中获取页号对应物理地址,再根据物理地址从内存中访问相应的数据

6.6、整体框架

image-20230210013329935

第一次访问内存:查页表

第二次访问内存:访问目标内存单元

6.4、具有快表的地址变换机构

image-20230210235926244

6.4.1、局部性原理(时间/空间)

image-20230210232343404

时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)

空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的)

上小节介绍的基本地址变换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查到的都是同一个页表项。既然如此,能否利用这个特性减少访问页表的次数呢?

  • 例如:每次获取物理地址都需要页面始址,每次都需要从页表中获取相应的物理块号,再根据物理块号获取页面始址

6.4.2、什么是快表(相联寄存器)(TLB)

快表,又称相联寄存器(TLB),是一种访问速度比内存快很多的高速缓冲存储器,用来存放当前访问的若干页表项,以加速地址变换的过程。与此对应,内存中的页表常称为慢表。


程序计数器 PC:存放下一条指令的逻辑地址

系统查询到页表项后,会将该页表项自动地复制到快表中

image-20230210233939098

即:若快表命中就不需要再访问内存了

快表中存放的是页表中的一部分副本


6.4.3、引入快表后,地址的变换过程

CPU 给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。

② 如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表命中,则访问某个逻辑地址仅需一次访存即可。

③ 如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)


由于查询快表的速度比查询页表的速度快很多,因此只要快表命中,就可以节省很多时间因为局部性原理,一般来说快表的命中率可以达到 90% 以上。


例:某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时 1us,访问一次内存耗时 100us 。若快表的命中率为 90% ,那么访问一个逻辑地址的平均耗时是多少?

(1 + 100) * 0.9 + (1 + 100 + 100) * 0.1 = 111 us (默认)

  • 因为根据页号获取到物理块号后,还需要访问一次内存单元

有的系统支持快表和慢表同时查找,如果是这样,平均耗时应该是(1+100) * 0.9 +(100+100) * 0.1 = 110.9 us

  • 如何快表查询成功了,就停止慢表的查询操作

若未采用快表机制,则访问一个逻辑地址需要 100 + 100 = 200 us


6.4.4、总结

地址变换过程访问一个逻辑地址的访问次数
基本地址变换机构① 算页号、页内偏移量
② 检查页号合法性
③ 查页表,找到页面存放的内存块号
④ 根据内存块号与页内偏移量得到物理地址
⑤ 访问目标内存单元
两次访存
具有快表的地址变换机构① 算页号、页内偏移量②检查页号合法性
③ 查快表。
若命中,即可知道页面存放的内存块号,可直接进行 ⑤
若未命中则进行 ④
④ 查页表,找到页面存放的内存块号,并且将页表项复制到快表中
⑤ 根据内存块号与页内偏移量得到物理地址
⑥ 访问目标内存单元
快表命中,只需一次访存
快表未命中,需要两次访存

6.5、两级页表

image-20230211000029813


6.5.1、单级页表存在的问题

image-20230210223847903

某计算机系统按字节寻址,支持 32 位的逻辑地址,采用分页存储管理,页面大小为 4 KB ,页表项长度为 4 B 。

4 KB= 212 B,因此页内地址(页内偏移量)要用 12 位表示,剩余 20 位表示页号。

因此,该系统中用户进程最多有 220 页。相应的,一个进程的页表中,最多会有 220 = 1 M= 1,048,576 个页表项,所以一个页表最大需要 220 * 4 B= 222 B,共需要 222 / 212= 210页框存储该页表。

  • 页框个数 = 页表大小 / 页面大小
  • 页表大小 = 页表项个数 * 页表项长度

根据页号查询页表的方法:K 号页对应的页表项存放位置 = 页表始址+K * 4

要在所有的页表项都连续存放的基础上才能用这种方法找到页表项

问题 ① :上述需要专门给进程分配 210 = 1024 个连续的页框来存放它的页表

问题 ② :根据局部性原理可知,很多时候,进程在一段时间内只需要访问某几个页面就可以正常运行了。

  • 因此没有必要让整个页表都常驻内存。

6.5.2、如何解决单级页表的问题?问题一(页目录表)

问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。

问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。


思考:我们是如何解决进程在内存中必须连续存储的问题的?

  • 将进程地址空间分页,并为其建立一张页表,记录各页面的存放位置

同样的思路也可用于解决 “页表必须连续存放” 的问题,把必须连续存放的页表再分页


可将长长的页表进行分组,使每个内存块刚好可以放入一个分组

  • 比如上个例子中,页面大小 4KB,每个页表项 4B,每个页面(页框)可存放 1K 个页表项,
  • 因此每 1K 个连续的页表项为一组,每组刚好占一个内存块,再讲各组离散地放到各个内存块中

另外,要为离散分配的页表再建立一张页表,称为页目录表,或称外层页表,或称顶层页表


6.5.3、两级页表的原理、地址结构

32 位逻辑地址空间,页表项大小为 4 B,页面大小为 4 KB,则页内地址占 12 位

image-20230211004211465


image-20230211004325843


如下所示:内存块号 3 存储的是 0# 页表的所有页表项

就是将页表分组,根据页目录表找相应的几号页表,再根据页号找该页表中的页表项对应的物理块号

image-20230211005004910


6.5.4、如何实现地址变换?

image-20230211005432833

6.5.5、如何解决单级页表的问题?问题二 (缺页中断)

问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。

问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。


可以在需要访问页面时才把页面调入内存(虚拟存储技术)。

  • 可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存

image-20230211005848270

缺页中断肯定是在执行某一条指令,想访问某一个暂时还没有调入页面的时候产生的

  • 所以这个中断信号和当前执行的指令有关,因此这种中断是属于内中断

6.5.6、需要注意的几个细节 !

① 若采用多级页表机制,则各级页表的大小不能超过一个页面(页框)

:某系统按字节编址,采用 40 位逻辑地址,页面大小为 4 KB,页表项大小为 4 B,假设采用纯页式存储,则要采用()级页表,页内偏移量为()位?

页面大小 = 4 KB = 212 B,按字节编址,因此页内偏移量为 12 位

页号 = 40 - 12= 28 位

页面大小= 212 B,页表项大小 = 4 B,则每个页面(页框,因为这是分页存储)可存放 212 / 4 = 210 个页表项

因此各级页表最多包含 210 个页表项,需要 10 位二进制位才能映射到 210 个页表项,因此每一级的页表对应页号应为 10 位。总共 28 位的页号至少要分为三级

image-20230211010808958

如果只分为两级页表,则一级页号占 18 位,也就是说页目录表中最多可能有 218 个页表项

显然,一个页面是放不下这么多页表项的。


② 两级页表的访存次数分析(假设没有快表机构)

  • 第一次访存:访问内存中的页目录表
  • 第二次访存:访问内存中的二级页表
  • 第三次访存:访问目标内存单元

6.5.7、整体框架

image-20230211013008639

7、基本分段存储方式

与 “分页” 最大的区别就是――离散分配时所分配地址空间的基本单位不同

image-20230211204221555


7.1、分段

进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程),每段从 0 开始编址

内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻。

image-20230211205639514

由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高

LOAD 1,[D] |<A>;	//将分段 D 中 A 单元内的值读入寄存器 1
STORE1,[X] |<B>;	//将寄存器 1 的内容存入 X 分段的 B 单元中

编译程序会将段名转换为段号


分段系统的逻辑地址结构由段号(段名)和段内地址(段内偏移量)所组成。如:

image-20230211213103515

段号的位数决定了每个进程最多可以分几个段

段内地址位数决定了每个段的最大长度是多少


在上述例子中,若系统是按字节寻址的,则

段号占 16 位,因此在该系统中,每个进程最多有 216 = 64 K 个段段内地址占 16 位,

  • 因此每个段的最大长度是 216 = 64 KB。
LOAD 1,[D] |<A>;	//将分段 D 中 A 单元内的值读入寄存器 1
STORE1,[X] |<B>;	//将寄存器 1 的内容存入 X 分段的 B 单元中

写程序时使用的段名 [D][X] 会被编译程序翻译成对应短号

<A> 单元、<B> 单元会被编译程序翻译成段内地址

image-20230211213959521


7.2、段表

问题:程序分多个段,各段离散地装入内存,为了保证程序能正常运行,就必须能从物理内存中找到各个逻辑段的存放位置。为此,需为每个进程建立一张段映射表,简称 “段表”。

image-20230211223237764

① 每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称 “基址” )和段的长度。

② 各个段表项的长度是相同的 。

例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号 16 位,段内地址 16 位),因此用 16 位即可表示最大段长。物理内存大小为 4GB(可用 32 位表示整个物理内存地址空间)。

  • 因此,可以让每个段表项占 16 + 32= 48 位,即 6B。
    • 因为段表项要记录段长(最大 16 位) 和基址(最大 32位),所以是 48 位
    • 物理内存为 4 GB,也就是基址的范围为 0 ~ 232
  • 由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始地址为 M,则 K 号段对应的段表项存放的地址为 M + K * 6

7.3、地址变换

image-20230211223642005

LOAD 1,[D] |<A>;	//将分段 D 中 A 单元内的值读入寄存器 1

经过编译程序编译后,形成等价的机器指令:

“取出段号为 2,段内地址为 1024 的内存单元中的内容,放到寄存器 1 中”

机器指令中的逻辑地址用二进制表示:00000000000000100000001000000000

  • CPU 执行指令时需要将逻辑地址变换为物理地址

image-20230211223931986


image-20230211224418385

和页面的最大区别是,每个段的长度是不同的

  • 所以对于步骤 ④,在分页管理中并不需要对页内偏移量(页内地址)进行越界检查,但在分段管理中需要对段内偏移量(段内地址)与段长进行越界检查

7.4、分段、分页管理的对比

页是信息的物理单位。分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的,即对用户是透明的。

段是信息的逻辑单位。分段的主要目的是更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显式地给出段名。

页的大小固定且由系统决定。段的长度却不固定,决定于用户编写的程序。

分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。

分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。

image-20230211225151319


分段比分页更容易实现信息的共享和保护。

不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的。可修改的代码是不能共享的(比如,有一个代码段中有很多变量,各进程并发地同时访问可能造成数据不一致)

image-20230211225518946

若用分页的话,很难实现。用户不知道内部是怎么划分的,共享的代码可能会更不共享的数据存放在同一个页面上,因此这个页面只有一部分是允许其他进程访问的,而另一部分不允许其他进程访问

image-20230211230234056


访问一个逻辑地址需要几次访存?

分页(单级页表):第一次访存――查内存中的页表,第二次访存――访问目标内存单元。总共两次访存

分段:第一次访存――查内存中的段表,第二次访存――访问目标内存单元。总共两次访存

与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少一次访问,加快地址变换速度。

7.5、整体框架

image-20230211232045181

8、段页式管理方式

image-20230211232211200

8.1、分页、分段的优缺点分析

优点缺点
分页管理内存利空间利用率高,不会产生外部碎片,只会有少量的页内碎片不方便按照逻辑模块实现信息的共享和保护
分段管理很方便按照逻辑模块实现的共享保护若段过大,为其分配很大的连续空间会很不方便。另外,段式管理会产生外部碎片

分段管理中产生的外部碎片也可以用 “紧凑” 来解决,只是需要付出较大的时间代价

image-20230211233134504


8.2、段页式管理

将进程按逻辑模块分段,再将各段分页(如每个页面 4 KB)

再将内存空间分为大小相同的内存块/页框/页帧/物理块

进程前将各页面分别装入各内存块中

image-20230211233325189


8.3、段页式管理的逻辑地址结构

分段系统的逻辑地址结构由段号和段内地址(段内偏移量)组成。如:

image-20230211233446545

段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)组成。如:

image-20230211233508321

  • 类似于二级页表

段号的位数决定了每个进程最多可以分几个段

页号位数决定了每个段最大有多少页

页内偏移量决定了页面大小、内存块大小是多少


在上述例子中,若系统是按字节寻址的,则

段号占 16 位,因此在该系统中,每个进程最多有 216 = 64 K 个段

页号占 4 位,因此每个段最多有 24 = 16 页

页内偏移量占 12 位,因此每个页面 \ 每个内存块大小为 212 = 4096 = 4 KB


"分段” 对用户是可见的,程序员编程时需要显式地给出段号、段内地址。

而将各段 “分页” 对用户是不可见的。

系统会根据段内地址自动划分页号和页内偏移量。

因此段页式管理的地址结构是二维的。


8.4、段表、页表

image-20230211234721831

就是把二级页表中的页目录表换成了段表

如下所示的二级页表

image-20230211005004910


一个进程对应一个段表,一个段表可能对应多个页表,即:一个进程可能会对应多个页表

8.5、地址变换

image-20230212001113985

也可以引入快表机构,用段号和页号作为查询快表的关键字。若快表命中则仅需一次访存

  • 知道了段号可以查询相应页号,知道了页号可以查询相应物理块号,知道了物理块号可以查询相应内存单元

在步骤 ④ 中,需要检查页号是否越界,更段式存储类似,因为每个段的长度可能是不相等的,存放的页表长度也可能不相等。

  • 因此需要这样的合法性检查

8.6、整体框架

image-20230212011051568

9、虚拟内存的基本概念

传统存储管理方式的基础上引入了交换技术、覆盖技术,使得内存利用率有所提升,并且能从逻辑上扩充内存容量。

虚拟存储技术比之前的交换技术和覆盖技术更先进一些

image-20230212011512982

9.1、传统存储管理方式的特征、缺点

image-20230212011748664

一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:

① 作业很大时,不能全部装入内存,导致大作业无法运行;

  • 例如:4 GB 大小的内存是不可能运行 64 GB 大小的游戏的

② 当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降。

驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。

  • 事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。

  • 例如:正在游戏中的 A 场景,B 场景的资源并不需要加载到内存当中,只需要加载 A 场景需要的资源,就可以保证游戏的正常运行了。

    若采用传统的话,不管是 A 场景还是 B 场景中的数据都要求一直驻留在内存当中,无论此时是否需要这些数据


可以用虚拟存储技术解决

9.2、局部性原理(高速缓冲技术思想)

image-20230210232343404

时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问。(因为程序中存在大量的循环)

空间局部性:一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的)

例如:之前介绍的基本地址变换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部性原理,可能连续很多次查到的都是同一个页表项。


高速缓冲技术的思想:将近期会频繁访问到的数据放到更高速的存储器中,暂时用不到的数据放在更低速存储器中。

  • 例如:之前所说的快表机构,就是将近期常访问的页表项副本放到更高速的联想寄存器中

image-20230212231114696

例如:书包与书架,为了避免频繁的从书架上取相同的书籍,可以把需要经常访问的书籍放到书包里,只需通过访问书包获取即可

image-20230212231555063

9.3、虚拟内存的定义和特征

9.3.1、定义

基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行。

在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。

  • 交换技术是将整个进程换出内存至对换区,虚拟存储是将部分信息(页,段)换出内存

在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存

  • 操作系统虚拟性的一个体现,实际的物理内存大小没有变,只是在逻辑上进行了扩充。

image-20230212231114696

易混知识点:

虚拟内存的最大容量是由计算机的地址结构(CPU 寻址范围)确定的

虚拟内存的实际容量 = min(内存和外存容量之和,CPU 寻址范围)

  • 如 :某计算机地址结构为 32 位,按字节编址,内存大小为 512 MB,外存大小为 2 GB

  • 则虚拟内存的最大容量为 232 B = 4 GB

  • 虚拟内存的实际容量 = min(232 B,512 MB + 2 GB)= 512 MB + 2 GB


9.3.2、特征

虚拟内存有一下三个主要特征:

多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。

对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。

虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。


9.4、如何实现虚拟内存技术

虚拟内存技术,允许一个作业分多次调入内存。如果采用连续分配方式,会不方便实现。

  • 一个作业若先调入一部分到内存中,若另一部分也要调入到内存,需要给它分配之前作业分配的内存空间相连续的一部分内存空间
  • 即:每一次给作业分配内存空间都需要保证与之前的作业相连续的,这样会很不方便实现

因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上。

image-20230212233618843

image-20230212233719605

主要区别:

在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。


即:操作系统需要在之前的非连续分配管理中增加两个功能

  • 操作系统要提供**请求调页(或请求调段)**功能
  • 操作系统要提供**页面置换(或段置换)**的功能

9.5、整体框架

image-20230212234538989

10、请求分页管理方式

请求分页存储管理与基本分页存储管理的主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。


即:操作系统需要在之前的非连续分配管理中增加两个功能

  • 操作系统要提供**请求调页(或请求调段)**功能
  • 操作系统要提供**页面置换(或段置换)**的功能

image-20230213223938615

注意与基本分页存储管理的页表机制、地址变换流程对比学习

10.1、页表机制

与基本分页管理相比,请求分页管理中,为了实现 “请求调页”,操作系统需要知道每个页面是否已经调入内存

  • 如果还没调入,那么也需要知道该页面在外存中存放的位置。

当内存空间不够时,要实现 “页面置换”,操作系统需要通过某些指标来决定到底换出哪个页面;

  • 有的页面没有被修改过,就不用再浪费时间写回外存。
  • 有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息。

image-20230213212112143


10.2、缺页中断机构(内中断)

image-20230213212248649

假设此时要访问逻辑地址 =(页号,页内偏移量)= (0,1024)

在请求分页系统中,每当要访问的页面不在内存时(即:状态位为 0),便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断。

此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。


如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项。

image-20230213212739169

如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,

  • 若该页面在内存期间被修改过,则要将其写回外存。
  • 未修改过的页面不用写回外存。

image-20230213213300034


缺页中断是因为当前执行的指令想要访问的目标页面未调入内存而产生的,因此属于内中断

一条指令在执行期间,可能产生多次缺页中断。

  • 如: copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A、B属于不同的页面,则有可能产生两次中断
    • 因为 AB 页面可能都不在内存中

image-20230213213831853


10.3、地址变换机构

请求分页存储管理与基本分页存储管理的主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。


即:操作系统需要在之前的非连续分配管理中增加两个功能

  • 操作系统要提供**请求调页(或请求调段)**功能
  • 操作系统要提供**页面置换(或段置换)**的功能

image-20230213212248649

新增步骤 1:请求调页(查到页表项时进行判断)

新增步骤 2:页面置换(需要调入页面,但没有空闲内存块时进行)

新增步骤 3:需要修改请求页表中新增的表项


image-20230213214543207


整体流程

image-20230213223356338

补充细节:

① 修改访问位和标志位

  • 只有 “写指令” 才需要修改 “修改位” 。并且,一般来说只需修改快表中的数据,只有要将快表项删除时才需要写回内存中的慢表。
  • 这样可以减少访存次数。

② 保留 CPU 现场

  • 和普通的中断处理一样,缺页中断处理依然需要保留 CPU 现场。

③ 选择一页换出

  • 需要用某种 “页面置换算法”来决定一个换出页面(下节内容)

④ (将该页写回内存)/ ⑤ (启动 I/O 硬件)

  • 换入/换出页面都需要启动慢速的 I/O 操作,可见,如果换入/换出太频繁,会有很大的开销。

⑥ 修改页表

  • 页面调入内存后,需要修改慢表,同时也需要将表项复制到快表中。

在具有快表机构的请求分页系统中,访问一个逻辑地址时,若发生缺页,则地址变换步骤是:

查快表(未命中)―― 查慢表(发现未调入内存)―― 调页(调入的页面对应的表项会直接加入快表)―― 查快表(命中)—― 访问目标内存单元

10.4、整体框架

image-20230213224154756


11、页面置换算法

请求分页存储管理与基本分页存储管理的主要区别:在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。

若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。

  • 页面置换算法决定应该换出哪个页面

image-20230213224444607

页面的换入、换出需要磁盘 I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率

  • 也就是换入、换出的次数尽可能地少

11.1、最佳置换算法

最佳置换算法(OPT, Optimal):每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面

  • 这样可以保证最低的缺页率。

image-20230213225508443

整个过程缺页中断发生了 9 次,页面置换发生了 6 次。

注意:缺页时未必发生页面置换。若还有可用的空闲内存块,就不用进行页面置换。

缺页率 = 9 / 20 = 45 %


最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到的是哪个页面。操作系统无法提前预判页面访问序列。

  • 因此,最佳置换算法是无法实现的。

11.2、先进先出置换算法(FIFO)(Belady 异常)

先进先出置换算法(FIFO):每次选择淘汰的页面是最早进入内存的页面

实现方法:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择队头页面即可。

  • 队列的最大长度取决于系统为进程分配了多少个内存块。

image-20230213230138099

分配三个内存块时,缺页次数:9 次


分配四个内存块时,缺页次数:10 次

image-20230213230311273


Belady 异常 :当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。


只有 FIFO 算法会产生 Belady 异常。另外,FIFO 算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常被访问。

  • 因此,算法性能差

11.3、最近最久未使用置换算法(LRU)

最近最久未使用置换算法(LRU,least recently used):每次淘汰的页面是最近最久未使用的页面

实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间 t 。

当需要淘汰一个页面时,选择现有页面中 t 值最大的,即最近最久未使用的页面。

image-20230213231353513


image-20230213231331505

在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中最后一个出现的页号就是要淘汰的页面。


该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大

11.3.1、哈希表 + 双向链表(Java)

class LRUCache {
    Map<Integer, ListNode> cache = new HashMap<>();
    DoublyLinkedList listedList;
    int size;
    public LRUCache(int capacity) {
        listedList = new DoublyLinkedList();
        size = capacity;
    }
    
    public int get(int key) {
        //说明包含当前元素
        if (cache.containsKey(key)) {
            //将链表中的元素移至尾部
            ListNode node = cache.get(key);
            listedList.removeNode(node);
            listedList.addNodeToTail(node);
            return node.val;
        }else {
            return -1;
        }
    }
    
    public void put(int key, int value) {
        if (listedList.size() >= size) {
            //新的元素
            if (!cache.containsKey(key)) {
                ListNode newNode = new ListNode(key, value);
                //插入到链表尾部
                listedList.addNodeToTail(newNode);
                //移除链表头部元素
                int k = listedList.removeHeadNode();
                cache.remove(k);
                cache.put(key, newNode);
            }else {
                ListNode kNode = cache.get(key);
                //将该元素移动到链表尾部
                listedList.removeNode(kNode);
                kNode.val = value;
                listedList.addNodeToTail(kNode);
            }
        }else {
            //新的元素
            if (!cache.containsKey(key)) {
                ListNode newNode = new ListNode(key, value);
                //插入到链表尾部
                listedList.addNodeToTail(newNode);
                cache.put(key, newNode);
            }else {
                ListNode kNode = cache.get(key);
                //将该元素移动到链表尾部
                listedList.removeNode(kNode);
                kNode.val = value;
                listedList.addNodeToTail(kNode);
            }
        }
    }
}
class ListNode{
    ListNode prev;
    ListNode next;
    int val;
    int key;
    ListNode(int key, int val) {
        this.val = val;
        this.key = key;
    }
}
class DoublyLinkedList{
    ListNode head;
    ListNode tail;
    int size;
    //初始化双向链表
    DoublyLinkedList() {
        head = new ListNode(0, 0);
        tail = new ListNode(0, 0);
        head.next = tail;
        tail.prev = head;
    }
    int size(){
        return size;
    }
    //删除头部节点
    int removeHeadNode() {
        ListNode next = head.next;
        head.next = head.next.next;
        head.next.prev = head;
        size--;
        return next.key;
    }
    //删除节点
    void removeNode(ListNode node) {
        node.prev.next = node.next;
        node.next.prev = node.prev;
        size--;
    }
    //添加节点到队尾, 尾插法
    void addNodeToTail(ListNode newNode) {
        ListNode prev = tail.prev;
        prev.next = newNode;
        newNode.prev = prev;
        tail.prev = newNode;
        newNode.next = tail;
        size++;
    }
}

11.4、时钟置换算法(CLOCK)

最佳置换算法性能最好,但无法实现;先进先出置换算法实现简单,但算法性能差;

最近最久未使用置换算法性能好,是最接近 OPT 算法性能的,但是实现起来需要专门的硬件支持,算法开销大。


时钟置换算法是一种性能和开销较均衡的算法,又称 CLOCK 算法,或最近未用算法(NRU,NotRecently Used)


简单的 CLOCK 算法实现方法:为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列。

  • 当某页被访问时,其访问位置为 1。
  • 当需要淘汰一个页面时,只需检查页的访问位。如果是 0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为 0 后,再进行第二轮扫描
  • 第二轮扫描中一定会有访问位为 0 的页面,因此简单的 CLOCK 算法选择一个淘汰页面最多会经过两轮扫描

淘汰出访问位为 0 的页面


image-20230213232113664


例:假设系统为某进程分配了五个内存块,并考虑到有以下页面号引用串:

1,3,4,2,5,6,3,4,7

image-20230213233252559

11.5、改进型的时钟置换算法

简单的时钟置换算法仅考虑到一个页面最近是否被访问过。

事实上,如果被淘汰的页面没有被修改过,就不需要执行 I/O 操作写回外存。

只有被淘汰的页面被修改过时,才需要写回外存。

因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。

在其他条件都相同时,应优先淘汰没有修改过的页面,避免 I/O 操作。这就是改进型的时钟置换算法的思想。

修改位 = 0,表示页面没有被修改过;修改位 = 1,表示页面被修改过。

为方便讨论,用(访问位,修改位)的形式表示各页面状态。

  • 如(1,1)表示一个页面近期被访问过,且被修改过。

算法规则:将所有可能被置换的页面排成一个循环队列

第一轮:从当前位置开始扫描到第一个(0,0)的帧用于替换。

  • 本轮扫描不修改任何标志位

第二轮:若第一轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。

  • 本轮将所有扫描过的帧访问位设为 0

第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0,0)的帧用于替换。

  • 本轮扫描不修改任何标志位

第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换

由于第二轮已将所有帧的访问位设为 0 ,因此经过第三轮、第四轮扫描一定会有一个帧被选中,

  • 因此改进型 CLOCK 置换算法选择一个淘汰页面最多会进行四轮扫描

总结

第一轮:找没访问过的、没修改的页面

第二轮:找没访问过的、修改的页面

  • 将所有扫描过的帧访问位设为 0

第三轮:找没访问过的、没修改的页面

第四轮:找没访问过的、修改的页面


只需一轮扫描(0,0)

image-20230214000207607

二轮扫描(0,1)—>(0,1)

image-20230214000612755

三轮扫描(0,1)—>(0,1)—>(0,0)

image-20230214001051302

四轮扫描(0,1)—>(0,1)—>(0,0)—>(0,1)

image-20230214001251060

11.6、总结

算法规则优缺点
OPT优先淘汰最长时间内不会被访问的页面缺页率最小,性能最好;但无法实现
FIFO优先淘汰最先进入内存的页面实现简单;但性能很差,可能出现 Belady 异常
LRU优先淘汰最近最久没访问的页面性能很好;但需要硬件支持,算法开销大
CLOCK(NRU)循环扫描各页面
第一轮淘汰访问位 = 0 的,并将扫描过的页面访问位改为 1。若第一轮没选中,则进行第二轮扫描。
实现简单,算法开销小;但未考虑页面是否被修改过。
改进型 CLOCK(改进型 NRU)若用(访问位,修改位)的形式表述,则
第一轮:淘汰(0, 0)
第二轮:淘汰(0, 1),并将扫描过的页面访问位都置为 0
第三轮:淘汰(0, 0)
第四轮:淘汰(0, 1)
算法开销较小,性能也不错

12、页面分配策略

image-20230214201308178

12.1、驻留集

驻留集 :指请求分页存储管理中给进程分配的物理块的集合

在采用了虚拟存储技术的系统中,驻留集的大小一般小于进程的总大小

考虑一个极端情况

  • 若某进程共有 100 个页面,则该进程的驻留集大小为 100 时进程可以全部放入内存,运行期间不可能再发生缺页。

  • 若驻留集大小为 1,则进程运行期间必定会极频繁地缺页

若驻留集太小,会导致缺页频繁,系统要花大量的时间来处理缺页,实际用于进程推进的时间很少;

驻留集太大,又会导致多道程序并发度下降,资源利用率降低。所以应该选择一个合适的驻留集大小。

  • 驻留集太大,内存空间优先,会导致少数进程能驻留在内存中,导致 CPU 并发度不高。
    • 即:驻留集太大,内存中的进程数量就会减少,并发度也就下降
  • 也会导致其他进程分配的驻留集就会很少

12.2、页面分配、置换策略

固定分配:操作系统为每个进程分配一组固定数目的物理块,在进程运行期间不再改变。

  • 即,驻留集大小不变

可变分配:先为每个进程分配一定数目的物理块,在进程运行期间,可根据情况做适当的增加或减少。

  • 即,驻留集大小可变

局部置换:发生缺页时只能选进程自己的物理块进行置换。

全局置换:可以将操作系统保留的空闲物理块分配给缺页进程,也可以将别的进程持有的物理块置换到外存,再分配给缺页进程。


策略组合:

image-20230214202423886

固定分配不能更全局置换组合

  • 因为采用全局置换,若操作系统将空闲的物理块分配给该缺页进程,会导致该进程的驻留集大小增大,不满足固定分配。若操作系统将其他进程持有的物理块分配给该缺页进程,会导致原先持有该物理块的进程的驻留集减少,当前缺页进程的驻留集增大

  • 全局置换意味着一个进程拥有的物理块数量必然会改变,因此不可能是固定分配


12.2.1、固定分配局部置换

固定分配局部置换:系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。

这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理

采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)


12.2.2、可变分配全局置换

可变分配全局置换:刚开始会为每个进程分配一定数量的物理块。

操作系统会保持一个空闲物理块队列。

当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;

  • 若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程。

采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加。


为什么要选择未锁定的页面调出

  • 因为系统会锁定一些页面,这些页面中的内容不能置换出外存(如:重要的内核数据可以设为 “锁定” )

12.2.3、可变分配局部置换

可变分配局部置换:刚开始会为每个进程分配一定数量的物理块。

当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。

如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;

  • 反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块。

可变分配全局置换:只要缺页就给分配新物理块

可变分配局部置换:要根据发生缺页的频率来动态地增加或减少进程的物理块

12.3、何时调入页面

12.3.1、预调页策略

预调页策略:根据局部性原理,一次调入若干个相邻的页面可能比一次调入一个页面更高效。

  • 主要是指空间局部性:如果当前访问了某个内存单元,在之后很有可能会接着访问与其相邻的内存单元

但如果提前调入的页面中大多数都没被访问过,则又是低效的。

  • 因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有 50% 左右。

故这种策略主要用于进程的首次调入,由程序员指出应该先调入哪些部分。

  • 运行前调入

12.3.2、请求调页策略

请求调页策略:进程在运行期间发现缺页时才将所缺页面调入内存。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘 I/O 操作,因此 I/O 开销较大。

  • 运行时调入

一般情况下,都会二者结合起来调用

12.4、从何处调入页面

① 系统拥有足够的对换区空间:页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快。

在进程运行前,需将进程相关的数据从文件区复制到对换区。

image-20230214204556984


② 系统缺少足够的对换区空间:凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘,下次需要时再从文件区调入即可。

对于可能被修改的部分,换出时需写回磁盘对换区,下次需要时再从对换区调入。

image-20230214204826138

UNIX 方式:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。

若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。

image-20230214205053069


可以看出 ② 是被修改过后的页面才会调出到对换区,③ 是**被访问过后(被使用过的)**才会调出到对换区


12.5、抖动(颠簸)现象

刚刚换出的页面马上又要换入内存,刚刚换入的页面马上又要换出外存,这种频繁的页面调度行为称为抖动,或颠簸。

  • 频繁地调入、调出页面

产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)


为进程分配的物理块太少,会使进程发生抖动现象。

为进程分配的物理块太多,又会降低系统整体的并发度,降低某些资源的利用率


为了研究为应该为每个进程分配多少个物理块,Denning 提出了进程 “工作集” 的概念


12.6、工作集

驻留集:指请求分页存储管理中给进程分配的内存块的集合。

工作集:指在某段时间间隔里,进程实际访问页面的集合。


操作系统会根据 “窗口尺寸” 来算出工作集。例:
某进程的页面访问序列如下,窗口尺寸为 4 ,各时刻的工作集为?

image-20230214210752580

工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块。

如:窗口尺寸为 5,经过一段时间的监测发现某进程的工作集最大为 3 ,那么说明该进程有很好的局部性,可以给这个进程分配 3 个以上的内存块即可满足进程的运行需要。

  • 时间局部性:如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能再次被访问

根据工作集的大小确定驻留集的大小

一般来说,驻留集大小不能小于工作集大小,否则进程运行过程中将频繁的缺页

  • 即:抖动现象
  • 例如:当前一段时间工作集大小为 3,驻留集大小为 2,当前进程要访问多出来的一个页面,需要发生缺页中断,根据相应的策略以及算法处理

拓展:基于局部性原理(空间局部性)可知,进程在一段时间内访问的页面与不久之后会访问的页面是有相关性的。

因此,可以根据进程近期访问的页面集合(工作集)来设计一种页面置换算法――选择一个不在工作集中的页面进行淘汰


12.7、整体框架

image-20230214211648737

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值