现代操作系统(第四版)课后习题-3.内存管理

三、内存管理

1.IBM360有一个设计,为了对2KB大小的块进行加锁,会对每个块分配一个4bit的密匙,这个密匙存在PSW中,每次内存引用时,CPU都会进行密匙比较。但该设计有诸多缺陷,除了描述中所言,请另外提出至少两条缺点

除了每次内存引用时需要进行密钥比较可能会引起性能瓶颈之外,这种设计还可能存在以下缺点:

  1. 密钥空间限制:4位密钥只能提供16种不同的密钥。这在多用户或多任务环境中可能不足以提供足够的安全性,因为密钥数量有限,容易导致密钥重复使用,增加了安全风险。
  2. 缺乏灵活性:此设计可能不支持更细粒度的访问控制。例如,在需要对特定应用或用户实施更具体的安全策略时,4位密钥的限制可能不足以支持复杂或动态的访问控制策略。
2.在图3-3中基址寄存器和限界寄存器含有相同的值16384,这是巧合还是它们总是相等?如果这是巧合,为什么在这个例子里它们是相等的?

在计算机系统的内存管理中,基址寄存器和限界寄存器通常用于实现内存保护和地址转换。基址寄存器存储的是内存区域的起始地址,而限界寄存器存储的是内存区域的大小或末端界限。

如果在图3-3中基址寄存器和限界寄存器都包含相同的值16384,这很可能是一个巧合。通常情况下,这两个寄存器的值不会总是相等,因为它们代表的是不同的概念:

  • 基址寄存器的值是进程可以访问的内存区域的起始物理地址。
  • 限界寄存器的值通常是进程可以访问的内存区域的大小(从基址开始的字节数)或者是内存区域的终止边界(基址+大小)。
3.交换系统通过"紧缩"来消除空闲区。假设有很多空闲区和数据段随机分布,并且读或写32位长的字需要4ns的时间,"紧缩"4GB的空间大概需要多长时间?为了简单起见,假设字节0在空闲区中,内存中最高地址处含有有效数据

紧缩通常意味着将内存中的数据块移动,以消除空闲区域,从而将所有的数据块连续地放置。假设整个内存空间从字节0到最高地址都需要重新组织,这将涉及读取和写入内存中的每一个字(32位,即4字节)。

计算步骤

  1. 确定内存操作的数量

    • 4GB的内存总共有 4 × 1 0 9 4 \times 10^9 4×109 字节。
    • 每个字为4字节,因此共有 4 × 1 0 9  字节 4  字节/字 = 1 0 9 \frac{4 \times 10^9 \text{ 字节}}{4 \text{ 字节/字}} = 10^9 4 字节/4×109 字节=109 个字
  2. 计算每个字的操作时间

    • 读取或写入一个字需要4ns
    • 紧缩一个字涉及将其从一个位置读出并写入到另一个位置,因此每个字的操作时间是 4  ns + 4  ns = 8  ns 4 \text{ ns} + 4 \text{ ns} = 8 \text{ ns} 4 ns+4 ns=8 ns
  3. 计算总时间

    • 紧缩 1 0 9 10^9 109 个字需要的时间是 1 0 9  字 × 8  ns/字 = 8 × 1 0 9  ns 10^9 \text{ 字} \times 8 \text{ ns/字} = 8 \times 10^9 \text{ ns} 109 ×8 ns/=8×109 ns
    • 转换成秒, 8 × 1 0 9  ns = 8  秒 8 \times 10^9 \text{ ns} = 8 \text{ 秒} 8×109 ns=8 

因此,紧缩4GB的空间大概需要8秒

4.在一个交换系统中,按内存地址排列的空闲区大小是10MB、4MB、20MB、18MB、7MB、9MB、12MB和15MB。对于连续的段请求:(1)12MB (2)10MB (3)9MB 使用首次适配算法,将找出哪个空闲区?使用最佳适配、最差适配、下次适配算法呢?

为了找出不同内存分配算法在交换系统中分配特定大小段请求时选择的空闲区,我们可以根据每种算法的定义分别进行分析。下面是对这些空闲区域进行操作的步骤说明:

首次适配算法(First-fit)

首次适配算法会选择遇到的第一个足够大的空闲区进行分配:

  1. 请求12MB:遇到的第一个足够大的空闲区是10MB,但它不够大,所以继续搜索,下一个是20MB,这足够大,因此选择20MB。
  2. 请求10MB:从头开始继续,下一个足够大的是10MB,选择10MB。
  3. 请求9MB:从头开始继续搜索,下一个足够大的是18MB,选择18MB。

最佳适配算法(Best-fit)

最佳适配算法会选择所有足夞大空闲区中最小的那一个:

  1. 请求12MB:可以选择的空闲区有20MB、18MB、12MB和15MB。最适合的是正好12MB。
  2. 请求10MB:现在12MB已被分配,可选的有10MB、20MB、18MB、12MB和15MB。最适合的是10MB。
  3. 请求9MB:现在10MB也已被分配,可选的有20MB、18MB、9MB和15MB。最适合的是9MB。

最差适配算法(Worst-fit)

最差适配算法会选择所有足够大空闲区中最大的那一个:

  1. 请求12MB:可选择的有20MB、18MB、15MB、12MB。最大的是20MB。
  2. 请求10MB:已分配20MB,现在最大的是18MB。
  3. 请求9MB:已分配18MB,现在最大的是15MB。

下次适配算法(Next-fit)

下次适配算法与首次适配相似,但从上次分配结束的地方开始搜索:

  1. 请求12MB:从头开始搜索,首个足够大的是20MB,选择20MB。
  2. 请求10MB:从20MB之后开始搜索,首个足够大的是18MB,选择18MB。
  3. 请求9MB:从18MB之后开始搜索,首个足够大的是12MB,选择12MB。

总结

每种算法的选择结果可能不同,具体依赖于空闲区的大小和段请求的顺序,以及系统的当前状态(即前一次分配留下的空间状态)

5.物理地址和虚拟地址有什么区别?

物理地址和虚拟地址是计算机内存管理中的两个基本概念,它们之间的区别是内存管理的核心部分:

  1. 虚拟地址(Virtual Address)

    • 定义:虚拟地址是由程序生成的地址,用于在程序代码中引用内存。它不是内存中实际物理位置的直接表示。
    • 用途:虚拟地址使得每个程序都像是在独立地使用整个计算机的内存资源,有助于操作系统为每个运行的程序提供独立和安全的内存空间。
    • 转换:虚拟地址通过操作系统中的内存管理单元(MMU)转换为物理地址。这一过程通常涉及查找页表以将虚拟地址映射到物理地址。
    • 优点:虚拟地址使得程序可以使用比实际物理内存更大的地址空间,支持内存保护机制,并允许系统更有效地使用内存(如通过分页和换页技术)。
  2. 物理地址(Physical Address)

    • 定义:物理地址是内存芯片上实际内存位置的地址。它是处理器或其他硬件设备访问物理内存单元所使用的地址。
    • 用途:物理地址用于指示实际的硬件内存位置,是最终的内存访问地址。
    • 固定性:物理地址直接对应到物理内存中的一个具体位置,不受程序控制,只能通过硬件和操作系统管理。
    • 限制:直接使用物理地址会限制多任务操作和内存保护策略的实现,因为每个程序可能会访问到其他程序的内存区域。

两者的联系:

虚拟内存管理系统(VMM)通过使用虚拟地址和物理地址之间的映射,提高了内存的使用效率和系统的安全性。虚拟地址到物理地址的映射允许多个程序同时运行而不干扰彼此,每个程序都有自己的地址空间,这提高了操作系统的稳定性和安全性。同时,这种映射机制支持了如分页和换页等内存管理技术,有助于有效地利用有限的物理内存资源。

6.对下面的每个十进制虚拟地址,分别使用4KB页面和8KB页面计算虚拟页号和偏移量:20000,32768,60000

为了将十进制虚拟地址转换成页号和偏移量,首先需要了解页面的大小。在这个例子中,我们考虑两种页面大小:4KB和8KB。页面大小决定了页号和偏移量的计算方式。

1. 页面大小为4KB

页面大小为4KB,即每个页面有 4 × 1024 = 4096 4 \times 1024 = 4096 4×1024=4096 字节。页号是由虚拟地址除以页面大小得到的整数部分,偏移量是虚拟地址除以页面大小的余数。

计算:

  • 虚拟地址 20000
    • 页号 = 20000 4096 \frac{20000}{4096} 409620000 = 4(整数部分)
    • 偏移量 = 20000 m o d    4096 20000 \mod 4096 20000mod4096 = 3616
  • 虚拟地址 32768
    • 页号 = 32768 4096 \frac{32768}{4096} 409632768 = 8
    • 偏移量 = 32768 m o d    4096 32768 \mod 4096 32768mod4096 = 0
  • 虚拟地址 60000
    • 页号 = 60000 4096 \frac{60000}{4096} 409660000 = 14
    • 偏移量 = 60000 m o d    4096 60000 \mod 4096 60000mod4096 = 3040

2. 页面大小为8KB

页面大小为8KB,即每个页面有 8 × 1024 = 8192 8 \times 1024 = 8192 8×1024=8192 字节。同样,页号是由虚拟地址除以页面大小得到的整数部分,偏移量是虚拟地址除以页面大小的余数。

计算:

  • 虚拟地址 20000
    • 页号 = 20000 8192 \frac{20000}{8192} 819220000 = 2(整数部分)
    • 偏移量 = 20000 m o d    8192 20000 \mod 8192 20000mod8192 = 3616
  • 虚拟地址 32768
    • 页号 = 32768 8192 \frac{32768}{8192} 819232768 = 4
    • 偏移量 = 32768 m o d    8192 32768 \mod 8192 32768mod8192 = 0
  • 虚拟地址 60000
    • 页号 = 60000 8192 \frac{60000}{8192} 819260000 = 7
    • 偏移量 = 60000 m o d    8192 60000 \mod 8192 60000mod8192 = 3040

通过这些计算,我们可以看出,不同页面大小对页号和偏移量的计算有直接影响。在页面较大时,相同的地址会有较小的页号,但偏移量不变(当地址是页面大小的整数倍时)。这反映了不同页面管理策略的内存管理效率和灵活性。

7.使用图3-9的页表,给出下面每个虚拟地址对应的物理地址:(a)20 (b)4100 ©8300

每个地址分割成4KB的页面,所以页表每页对应0-4K、4K~8K等区间。

步骤:

  1. 确定虚拟页号和偏移量

    • 页面大小为4KB,即4096字节。
    • 虚拟页号是虚拟地址除以4096的结果。
    • 偏移量是虚拟地址除以4096后的余数。
  2. 查找物理页号

    • 使用虚拟页号在页表中查找对应的物理页号。
  3. 计算物理地址

    • 物理地址 = 物理页号 × 4096 + 偏移量。

虚拟地址的计算:

  • 虚拟地址20

    • 虚拟页号 = 20 / 4096 = 0
    • 偏移量 = 20 % 4096 = 20
    • 物理页号 = 2(查表)
    • 物理地址 = 2 × 4096 + 20 = 8204
  • 虚拟地址4100

    • 虚拟页号 = 4100 / 4096 = 1
    • 偏移量 = 4100 % 4096 = 4
    • 物理页号 = 1(查表)
    • 物理地址 = 1 × 4096 + 4 = 4100
  • 虚拟地址8300

    • 虚拟页号 = 8300 / 4096 = 2
    • 偏移量 = 8300 % 4096 = 108
    • 物理页号 = 0(查表)
    • 物理地址 = 0 × 4096 + 108 = 108

这样,我们得到每个虚拟地址对应的物理地址:20对应8204,4100对应4100,8300对应108

8.Intel 8086处理器没有MMU,也不支持虚拟内存,然而有一些公司曾经出售过这种系统:包括未做任何改动的8086CPU,支持分页。猜想一下,他们是如何做到这一点的。(提示:考虑MMU的逻辑位置)

Intel 8086 处理器原生并不支持虚拟内存或分页,因为它没有内置的内存管理单元(MMU)。然而,一些公司曾经提供支持分页的系统,即使使用的是未修改的 8086 CPU。这通常是通过以下方法实现的:

使用外部MMU硬件

一种可能的方法是通过外部硬件来实现分页功能。这些外部硬件单元作为MMU的功能,与CPU配合使用,来管理虚拟内存和物理内存之间的映射。外部MMU可以:

  • 接收来自CPU的虚拟地址。
  • 查找内置的页表,将虚拟地址转换成物理地址。
  • 将转换后的物理地址返回给CPU,以便进行内存访问。

修改BIOS或使用特殊的启动加载程序

另一种方法可能涉及修改BIOS或使用特殊的启动加载程序,这些程序在系统启动时加载,设置必要的硬件寄存器和配置,以支持分页。这可能包括初始化外部MMU硬件和预先配置页表。

使用软件仿真

尽管性能可能会受到严重影响,但理论上也可以通过软件来模拟分页管理。这种方法涉及拦截对内存的访问,然后通过软件层来模拟页表的查找和地址转换过程。这种方法的实用性受限于处理速度和效率。

结合使用专用硬件和软件

在一些系统中,可能使用了专用硬件来加速某些关键操作,同时结合软件来管理内存,以提供更灵活的内存管理策略,例如,硬件负责快速的地址转换,而软件则负责管理页表和处理页面错误。

总之,尽管8086本身不支持虚拟内存,但通过使用外部MMU硬件或特定的软件/固件解决方案,可以实现对分页的支持。这些方法允许8086在不修改原有CPU结构的情况下,通过外部扩展来增强其功能。

9.为了让分页虚拟内存工作,需要怎样的硬件支持?

要实现分页虚拟内存系统,需要一系列硬件支持,这些硬件功能协同工作以管理内存访问、内存分配和数据在物理内存与磁盘之间的动态交换。以下是分页虚拟内存系统所需的关键硬件组件和功能:

  1. 内存管理单元(MMU)

    • 功能:MMU是实现虚拟内存管理的核心硬件组件。它负责将虚拟地址转换成物理地址。这通常通过查找页表来完成,页表存储了虚拟页面到物理页面的映射。
    • 页表:MMU利用页表来找到虚拟页面对应的物理内存地址。页表可能存储在内存中,而MMU通过硬件加速访问这些表项。
  2. 硬件支持的页表

    • 页表寄存器:如页表基址寄存器(PTBR)指向当前的页表的物理内存地址。
    • 转换后备缓冲器(TLB):TLB是一种专门的缓存,用于存储最近使用的页表条目(PTE)。它可以极大地加快虚拟地址到物理地址的转换过程。
  3. 中断和异常处理单元

    • 页面错误异常:当程序访问的虚拟地址未被映射到物理内存时,MMU会触发页面错误(page fault)中断。处理器接收到中断后,操作系统将处理页面错误,可能涉及从磁盘读取数据到内存。
  4. 支持输入/输出(I/O)操作的硬件

    • 直接内存访问(DMA):用于允许外设直接向内存读写数据,绕过中央处理器,提高数据传输效率。在虚拟内存系统中,DMA操作需要通过MMU来确保虚拟地址正确映射。
  5. 存储设备

    • 交换空间或分页文件:物理内存不足时,操作系统可以将不活跃的内存页移动到磁盘的专用存储区域(称为交换空间或分页文件)。这要求有足够的磁盘空间和高效的磁盘访问机制。
  6. 高速缓存一致性协议

    • 在多处理器系统中,各个处理器的缓存内容必须保持一致,以确保每个处理器看到的内存视图是一致的。这通过一致性协议如MESI(修改、独占、共享、无效)协议来实现。

这些硬件支持的集成使得现代计算机能够有效地实现分页虚拟内存,提高内存使用效率,保证系统的稳定性和多任务处理能力。

10.写时复制是使用在服务器系统上的好方法,他能否在手机上起作用?

写时复制(Copy-on-Write, COW)是一种优化内存使用的技术,它在多个进程或线程需要读取相同数据时节省内存。当某个进程需要对这些数据进行修改时,系统不是直接修改原始数据,而是复制一份数据副本给该进程,从而实现修改。这种技术可以有效减少不必要的数据复制,提高内存使用效率,并降低系统的总体资源消耗。

写时复制在手机上的应用

写时复制技术完全可以在手机上起作用,实际上,它已经被广泛应用在现代操作系统中,包括那些运行在手机上的操作系统如Android和iOS。以下是几个写时复制在手机上起作用的场景:

  1. 应用程序资源共享

    • 手机应用常常需要访问共享资源(如图像、配置文件等)。通过使用写时复制,可以在多个应用或进程之间共享这些资源,直到其中一个需要修改,这时才进行复制,从而节省内存。
  2. 系统优化和性能提升

    • 在手机操作系统中,写时复制可以减少应用启动时间和运行时的内存占用,因为系统可以延迟不必要的数据复制。
  3. 内存管理

    • 手机操作系统使用写时复制技术来优化内存的分配和使用,尤其是在内存紧张的环境下。这可以防止系统过早地耗尽内存资源。
  4. 多任务处理

    • 在多任务环境中,写时复制使得任务切换更加高效。当多个应用或服务需要访问相同数据时,可以共享同一内存区域,只有在必要时才进行数据的实际复制。
  5. 安全性

    • 写时复制还可以提高应用程序的隔离性和安全性。通过仅在必要时允许修改数据,可以防止应用程序意外或恶意地修改共享数据。

总之,写时复制是一个在服务器系统中常见的优化技术,但其优势同样适用于手机设备。这种技术在手机操作系统中的应用有助于提高内存使用效率、增加应用的响应速度、节省电池寿命并提升用户体验。

11.考虑下面的C程序
int X[N];
int step=M; //M是某个预定义的常量
for(int i=0;i<N;i+=step){
    X[i]=X[i]+1;
}
  1. 如果这个程序运行在一个页面大小为4KB且有64个TLB表项的机器上,那么M和N取什么值会使得内层循环的每次执行都引起TLB失效?
  2. 如果循环重复很多遍,结果会和a的答案相同吗?请解释

在考虑此问题时,需要根据页面大小、数组的内存布局和TLB的特性来分析。这涉及到内存管理单元(MMU)如何处理虚拟内存到物理内存的映射以及TLB如何缓存这些映射信息。

a. 导致每次循环都引起TLB失效的M和N的值

  1. 页面大小和数组元素的关系

    • 页面大小为4KB。假设int类型大小为4字节,则每页可以容纳 4096 4 = 1024 \frac{4096}{4} = 1024 44096=1024int元素。
  2. 计算M和N

    • 为了使得循环的每次执行都引起TLB失效,我们需要确保每次访问的数组元素X[i]位于不同的页面上,并且超过TLB能缓存的页面映射数量。
    • TLB有64个表项,因此可以缓存64个页面的地址映射信息。
    • 要使每次循环都引起TLB失效,理想的情况是每次循环访问的页面地址没有被TLB缓存,或者超出了TLB的缓存能力。这可以通过设置M的值来实现,使得每次访问的数组索引跨越尽可能多的页面。一个简单的方法是让M的值等于或大于1024(即每页所能容纳的int元素数),从而保证每次数组访问都跨越至少一个页面。
    • 同时,N应该足够大,以确保访问的页面数超过TLB的容量。例如,如果M = 1024,则N应大于 1024 × 64 1024 \times 64 1024×64,以保证有超过64个页面被访问。

b. 如果循环重复很多遍,结果会和a的答案相同吗?

  • 循环的重复执行与TLB行为
    • 当循环首次执行时,访问的每个新页面都可能导致TLB失效,因为TLB开始时是空的或者不包含所需的映射。
    • 如果循环重复执行,情况会有所不同。当同一个页面再次被访问时,其映射很可能已在TLB中缓存,除非TLB中的条目被新的页面映射替换。因此,如果循环次数足够多,TLB将开始缓存频繁访问的页面的映射,从而减少TLB失效的发生。
    • 结果是,如果循环多次执行,可能不会像最初那样每次都引起TLB失效。这取决于TLB的替换策略和页面访问的模式。

总之,为了最初每次循环都引起TLB失效,可以将M设置为1024,N设置为足够大以覆盖超过64个页面。如果循环重复执行,由于TLB缓存的作用,TLB失效的次数可能会减少。

12.可用于存储页面的有效磁盘空间的大小和下列因素有关:最大进程数n,虚拟地址空间的字节数v,RAM的字节数r。给出最坏情况下磁盘空间需求的表达式。这个数量的真实性如何?

为了确定最坏情况下存储页面的有效磁盘空间需求,我们需要考虑系统中的最大进程数、每个进程的虚拟地址空间大小以及系统的实际物理内存(RAM)大小。

定义符号

  • ( n ): 最大进程数
  • ( v ): 每个进程的虚拟地址空间的字节数
  • ( r ): 系统的物理内存(RAM)的字节数

最坏情况下的磁盘空间需求

在最坏的情况下,所有进程都在同时运行,并且每个进程都使用其全部的虚拟地址空间。在这种情况下,物理内存可能不足以容纳所有进程的所有页,因此必须将大部分页存储在磁盘上。

假设最坏情况下:

  1. 每个进程都需要其虚拟地址空间中的所有页。
  2. 总的虚拟地址空间需求是 n × v n \times v n×v 字节。
  3. 系统的物理内存只能容纳 ( r ) 字节的数据。

因此,磁盘需要存储的页面总数是:
磁盘空间需求 = n × v − r \text{磁盘空间需求} = n \times v - r 磁盘空间需求=n×vr

解释

  • n × v n \times v n×v: 系统中所有进程的总虚拟地址空间需求。
  • r r r: 系统中的实际物理内存大小。
  • n × v − r n \times v - r n×vr: 需要存储在磁盘上的页面数量,因为物理内存只能容纳一部分数据,其余的数据需要存储在磁盘上。

真实性和实际性

这种计算方式提供了一个理论上的最坏情况估计。在实际应用中,磁盘空间需求可能不会达到这个最坏情况值,原因如下:

  1. 内存分配效率:并非所有进程同时使用其全部虚拟地址空间,通常有许多页面是空闲或未使用的。
  2. 内存压缩和共享:现代操作系统通过内存压缩、共享内存页(例如共享库)等技术来减少实际的内存和磁盘使用量。
  3. 进程生命周期:进程可能会频繁创建和销毁,并非所有进程都在同时运行。
  4. 实际负载和需求:实际系统负载通常不会达到理论上的最坏情况,多数情况下系统有足够的内存处理常见的负载。

因此,虽然 n × v − r n \times v - r n×vr 给出了一个理论上的最坏情况磁盘空间需求,但实际需求往往比这要少很多。操作系统的内存管理机制和进程行为模式使得实际磁盘空间需求通常低于最坏情况的估计。

13.如果一条指令执行 1 n s 1ns 1ns,缺页中断执行额外的 N n s Nns Nns,且每 k k k条指令产生一个缺页,请给出一个公式,计算有效指令时间

要计算有效指令时间,需要考虑正常指令执行时间和缺页中断带来的额外时间开销。

符号定义

  • T instr T_{\text{instr}} Tinstr: 每条指令的执行时间,给定为1纳秒(ns)。
  • T page_fault T_{\text{page\_fault}} Tpage_fault: 缺页中断的额外执行时间,给定为 N N N 纳秒(ns)。
  • k k k: 每 $ k$条指令产生一个缺页中断。

公式推导

  1. 正常指令执行时间:每条指令执行时间为 T instr = 1 T_{\text{instr}} = 1 Tinstr=1 ns。
  2. 缺页中断时间:每 k k k条指令产生一次缺页中断,导致额外的 N N N ns 执行时间。

k k k 条指令执行过程中,总时间包括:

  • k k k 条指令的执行时间: k × T instr = k × 1 k \times T_{\text{instr}} = k \times 1 k×Tinstr=k×1 ns。
  • 一次缺页中断的时间: T page_fault = N T_{\text{page\_fault}} = N Tpage_fault=Nns。

总时间为:
T total = k × 1 + N T_{\text{total}} = k \times 1 + N Ttotal=k×1+N

有效指令时间

有效指令时间是总时间除以 k k k条指令,以得到每条指令的平均执行时间:
T effective = T total k = k × 1 + N k = 1 + N k T_{\text{effective}} = \frac{T_{\text{total}}}{k} = \frac{k \times 1 + N}{k} = 1 + \frac{N}{k} Teffective=kTtotal=kk×1+N=1+kN

因此,有效指令时间的公式为:
T effective = 1 + N k T_{\text{effective}} = 1 + \frac{N}{k} Teffective=1+kN

解释

  • 1 1 1: 每条指令的基本执行时间。
  • N k \frac{N}{k} kN: 缺页中断引入的平均额外时间。

这个公式表明,在考虑缺页中断的影响后,每条指令的平均执行时间增加了一个与缺页中断频率和额外时间相关的值。随着 $ k$ 增加(即缺页中断变得不那么频繁),有效指令时间趋近于基本执行时间1 ns。反之,随着 $ N$ 增加(即缺页中断开销增加)或 $ k $ 减少(即缺页中断变得更频繁),有效指令时间增加。

14.一个机器有32位地址空间和8KB页面,页表全在硬件中,页表的每一表项为一个32位字。进程启动时,以每个字100ns的速度将页表从内存复制到硬件中。如果每个进程运行100ms(包含装入页表的时间),用来装入页表的CPU时间的比例是多少?

为了计算用来装入页表的CPU时间比例,我们需要确定以下几个方面:

  1. 页表的大小:32位地址空间和8KB页面大小。
  2. 页表的装入时间:以每个字100ns的速度将页表从内存复制到硬件中。
  3. 总运行时间:每个进程的总运行时间包括装入页表的时间。

1. 页表的大小

  • 32位地址空间:意味着地址范围是 2 32 2^{32} 232
  • 8KB页面:8KB = 2 13 2^{13} 213 字节。
  • 页数:页表中所需的页数 = 地址空间大小 / 页面大小 = 2 32 2 13 = 2 19 \frac{2^{32}}{2^{13}} = 2^{19} 213232=219 页。
  • 页表项的大小:每个页表项是一个32位字,即4字节。

因此,页表的总大小是:
页表大小 = 2 19 × 4  字节 = 2 21  字节 = 2  MB \text{页表大小} = 2^{19} \times 4 \text{ 字节} = 2^{21} \text{ 字节} = 2 \text{ MB} 页表大小=219×4 字节=221 字节=2 MB

2. 页表的装入时间

  • 装入速率:每个字100ns,即每4字节(一个页表项)需要100ns。
  • 页表项数量:页表有 2 19 2^{19} 219 个页表项。

装入整个页表的时间是:
装入时间 = 2 19 × 100  ns = 2 19 × 1 0 − 7  s = 5.24  ms \text{装入时间} = 2^{19} \times 100 \text{ ns} = 2^{19} \times 10^{-7} \text{ s} = 5.24 \text{ ms} 装入时间=219×100 ns=219×107 s=5.24 ms

3. 总运行时间

  • 每个进程的总运行时间:每个进程运行100ms,包括装入页表的时间。

4. CPU时间的比例

装入页表的CPU时间比例是装入页表的时间占总运行时间的比例:

装入页表的CPU时间比例 = 装入时间 总运行时间 = 5.24  ms 100  ms = 0.0524 \text{装入页表的CPU时间比例} = \frac{\text{装入时间}}{\text{总运行时间}} = \frac{5.24 \text{ ms}}{100 \text{ ms}} = 0.0524 装入页表的CPU时间比例=总运行时间装入时间=100 ms5.24 ms=0.0524

结论

用来装入页表的CPU时间比例是 5.24%。

15.假设一个机器有48位的虚拟地址和32位的物理地址
  • 假设页面大小是4KB,如果只有一级页表,那么在页表里有多少个页表项?请解释
  • 假设同一系统有TLB,该TLB有32个表项。并且假设一个程序的指令正好能放入一个页,其功能是顺序地从数组中读取长整型元素,该数组存在上千个不同的页中。在这种情况下TLB的效率如何?

1. 一级页表的页表项数量

假设页面大小是4KB

  • 页面大小:4KB = 2 12 2^{12} 212字节。
  • 虚拟地址空间:48位,即虚拟地址的范围是 2 48 2^{48} 248
  • 物理地址空间:32位,即物理地址的范围是 2 32 2^{32} 232

页表项计算:

  • 页偏移量:页面大小为4KB( 2 12 2^{12} 212字节),因此页偏移量部分需要12位。
  • 虚拟页号:虚拟地址总共48位,其中12位用于页偏移量,剩下的36位用于虚拟页号。

虚拟页号的范围:
$ 2^{36} $

因此,一级页表需要包含 2 36 2^{36} 236 个页表项。

2. TLB的效率

假设同一系统有TLB,该TLB有32个表项

  • TLB(Translation Lookaside Buffer):TLB是一个缓存,用于加速虚拟地址到物理地址的转换。它缓存了最近使用的页表项。
  • 数组访问模式:假设程序的指令放在一个页面中,并且顺序地从数组中读取长整型元素(假设每个长整型元素为8字节)。

分析:

  1. 页面大小与元素数量

    • 页面大小为4KB( 2 12 2^{12} 212 字节)。
    • 每个页面可容纳的长整型元素数量为:
      4  KB 8  字节/元素 = 512  个元素 \frac{4 \text{ KB}}{8 \text{ 字节/元素}} = 512 \text{ 个元素} 8 字节/元素4 KB=512 个元素
  2. 数组分布

    • 数组存在上千个不同的页面中,表示数组非常大,并且每次访问的元素可能位于不同的页面。
  3. TLB表项数量

    • TLB有32个表项,这意味着TLB可以缓存32个页面的地址映射。

TLB效率:

  • 顺序读取:由于数组很大,每次读取的元素可能会跨越多个页面。在这种情况下,顺序读取意味着每次读取的新页面可能不会在TLB中。
  • TLB命中率
    • 当程序顺序地从数组中读取数据时,初次访问一个页面时,TLB可能会缺失并需要从页表中加载该页面的映射。
    • 由于数组有上千个页面,而TLB只有32个表项,所以在频繁访问不同页面的情况下,TLB的命中率会非常低。
    • 在最坏情况下,每次访问一个新页面都会导致TLB缺失,从而需要进行页表查找,降低了TLB的效率。

综上所述:

  • 页表项数量:一级页表需要 2 36 2^{36} 236 个页表项。
  • TLB效率:由于程序顺序地读取上千个不同页面中的元素,并且TLB只有32个表项,TLB的效率会非常低,命中率会很差。这是因为每次访问新页面时,TLB可能需要频繁地进行页表查找。
16.给定一个虚拟内存系统的如下数据:
  • TLB有1024项,可以在一个时钟周期(1ns)内访问
  • 页表项可以在100时钟周期(100ns)内访问
  • 平均页面替换时间是6ms

如果TLB处理的页面访问占99%,并且0.01%的页面访问会发生缺页中断,那么有效地址转换时间是多少?

要计算有效地址转换时间,我们需要考虑TLB命中和缺页中断两种情况的平均时间。

首先,我们计算TLB命中的情况下的平均时间。由于99%的页面访问在TLB中命中,所以这部分访问的平均时间是1ns。

然后,我们计算缺页中断的情况下的平均时间。给定了平均页面替换时间为6ms,因此缺页中断的平均时间为6ms。

因此,有效地址转换时间可以通过TLB命中和缺页中断的概率加权平均来计算:

有效地址转换时间 = TLB命中时间 × TLB命中率 + 缺页中断时间 × 缺页中断率 \text{有效地址转换时间} = \text{TLB命中时间} \times \text{TLB命中率} + \text{缺页中断时间} \times \text{缺页中断率} 有效地址转换时间=TLB命中时间×TLB命中率+缺页中断时间×缺页中断率

有效地址转换时间 = ( 1 n s × 0.99 ) + ( 6 m s × 0.0001 ) \text{有效地址转换时间} = (1ns \times 0.99) + (6ms \times 0.0001) 有效地址转换时间=(1ns×0.99)+(6ms×0.0001)

有效地址转换时间 = 0.99 n s + 0.6 m s \text{有效地址转换时间} = 0.99ns + 0.6ms 有效地址转换时间=0.99ns+0.6ms

有效地址转换时间 = 0.99 n s + 600 n s \text{有效地址转换时间} = 0.99ns + 600ns 有效地址转换时间=0.99ns+600ns

有效地址转换时间 = 600.99 n s \text{有效地址转换时间} = 600.99ns 有效地址转换时间=600.99ns

因此,有效地址转换时间是600.99纳秒。

17.假设一个机器有38位的虚拟地址和32位的物理地址
  • 与一级页表比较,多级页表的主要优点是什么?
  • 若采用二级页表,页面大小为16KB,每个页表项为4字节,应该对第一级页表域分配多少位?对第二级页表域分配多少位?请解释原因

1.多级页表相对于一级页表的主要优点包括:

  1. 更好的空间利用:多级页表可以将整个地址空间分割成更小的块,在内存中更有效地组织页表信息。这意味着即使虚拟地址空间非常大,也不需要一次性将整个页表加载到内存中,从而节省了内存空间。

  2. 更好的页面表维护:由于页面表是分级的,因此只有在需要时才加载到内存中的页表级别,这降低了内存访问的开销,并且使得在页表结构中进行修改和管理更为简便。

  3. 更好的局部性:多级页表允许更好地利用局部性原理。通过将页面表分割成较小的部分,它可以更好地适应程序的局部性特征,从而提高了访问页面表的速度。

2.采用二级页表时,页面大小为16KB,每个页表项为4字节。为了确定需要分配多少位给第一级页表域和第二级页表域,我们首先需要计算页面和页表的数量。

每个页面大小为16KB,因此页面大小为 2 14 2^{14} 214 字节。物理地址是32位,所以物理地址空间中的页面数为:

物理页面数 = 物理地址空间大小 页面大小 = 2 32 2 14 = 2 18 \text{物理页面数} = \frac{\text{物理地址空间大小}}{\text{页面大小}} = \frac{2^{32}}{2^{14}} = 2^{18} 物理页面数=页面大小物理地址空间大小=214232=218

同样,虚拟地址是38位,因此虚拟地址空间中的页面数为:

虚拟页面数 = 虚拟地址空间大小 页面大小 = 2 38 2 14 = 2 24 \text{虚拟页面数} = \frac{\text{虚拟地址空间大小}}{\text{页面大小}} = \frac{2^{38}}{2^{14}} = 2^{24} 虚拟页面数=页面大小虚拟地址空间大小=214238=224

由于使用了二级页表,我们需要确定两级页表的大小。假设第一级页表占用的虚拟地址空间大小为 x x x,则第一级页表的页面数为 2 ( 38 − x ) 2^{(38-x)} 2(38x)

对于第二级页表,每个页面项大小为4字节,因此每个页面可以包含 2 14 / 4 = 2 12 2^{14}/4 = 2^{12} 214/4=212 个页表项。所以,第一级页表占用的页面数是:

第一级页表占用的页面数 = 第二级页表的页面数 2 12 = 2 24 2 12 = 2 12 \text{第一级页表占用的页面数} = \frac{\text{第二级页表的页面数}}{2^{12}} = \frac{2^{24}}{2^{12}} = 2^{12} 第一级页表占用的页面数=212第二级页表的页面数=212224=212

现在,我们知道第一级页表占用的虚拟地址空间大小为 x x x,其页面数为 2 12 2^{12} 212。因此, x x x 的值可以通过以下方式确定:

2 ( 38 − x ) = 2 12 2^{(38-x)} = 2^{12} 2(38x)=212

38 − x = 12 38 - x = 12 38x=12

x = 26 x = 26 x=26

所以,第一级页表域应该分配 26 位。

由于剩余的 38 位虚拟地址中已经有 26 位被用于第一级页表域,所以第二级页表域需要的位数是:

38 − 26 = 12 38 - 26 = 12 3826=12

所以,第二级页表域应该分配 12 位。

这样,对于每个虚拟地址,前 26 位用于第一级页表索引,中间的 12 位用于第二级页表索引,剩余的 38 - 26 - 12 = 0 位用于页内偏移。

18.在3.3.4节的陈述中,奔腾Pro将多级页表中的每个页表项扩展到64位,但仍只能对4GB的内存进行寻址。请解释页表项为64位时,为何这个陈述正确?

在讨论奔腾Pro处理器时,其页表项被扩展到64位,但它仍然只能对4GB的物理内存进行寻址。为了理解这一点,我们需要考虑以下几个方面:

虚拟地址与物理地址

  1. 虚拟地址:处理器可以使用虚拟地址来访问内存。这些虚拟地址通过分页机制映射到物理地址。
  2. 物理地址:这是实际的硬件内存地址。

页表项的结构

在分页机制中,页表项包含了几个关键字段:

  • 物理页帧地址:这是页面在物理内存中的地址。
  • 标志位:这些位用于控制页面的属性,比如有效位、读/写位、用户/超级用户位、缓存控制位等。

64位页表项的意义

即使页表项扩展到64位,实际用于物理地址的位数可能仍然是有限的。例如:

  • 如果物理内存地址空间只允许32位地址(即最大4GB内存),那么64位页表项中的大部分位将不会用于实际的物理地址。
  • 扩展到64位的页表项可以用于增强其他功能,比如:
    • 增加标志位:更多的控制和状态位用于高级内存管理功能。
    • 增加地址拓展能力:在未来硬件支持更大内存时,可以更方便地扩展物理地址范围。

为什么奔腾Pro只能寻址4GB内存

奔腾Pro处理器的物理地址总线仍然是32位,因此即使页表项是64位,实际用于物理地址的位数仍然只有32位,限制了最大物理内存为4GB。

示例

假设64位页表项的结构如下:

  • 高32位:用于标志位和其他控制信息。
  • 低32位:用于实际的物理页帧地址。

因此,尽管每个页表项是64位,但物理地址空间的限制仍然在32位范围内:

  • 高32位:标志位和控制位
  • 低32位:物理页帧地址(4GB范围内)

总结

奔腾Pro的页表项扩展到64位是为了提供更多的控制和管理功能,而不是为了直接增加物理内存寻址能力。由于其物理地址总线仍然是32位,所以它仍然只能寻址4GB的物理内存。这是因为物理地址的实际限制不在页表项的位数上,而在处理器和内存总线的设计上。

19.一个32位地址的计算机使用两级页表。虚拟地址被分成9位的第一级页表域、11位的二级页表域和一个偏移量,页面大小是多少?在地址空间中一共有多少个页面?

要计算页面大小和地址空间中的总页面数,我们可以使用给定的虚拟地址位数和分配给页表域的位数。

虚拟地址分配

虚拟地址是32位,被分成以下部分:

  • 第一级页表域:9位
  • 第二级页表域:11位
  • 偏移量:剩余的位数

计算页面大小

偏移量部分决定了页面的大小。页面偏移量的位数可以通过从虚拟地址总位数中减去第一级和第二级页表域的位数得到:

页面偏移量的位数 = 32 − 9 − 11 = 12 32 - 9 - 11 = 12 32911=12

页面大小可以通过偏移量的位数计算得出:

页面大小 = 2 12 = 4096 2^{12} = 4096 212=4096 字节

所以,页面大小是4096字节(4KB)。

计算地址空间中的页面总数

虚拟地址空间的总页面数可以通过以下方式计算:

虚拟地址空间的总页面数 = 2 32 2 12 = 2 20 \frac{2^{32}}{2^{12}} = 2^{20} 212232=220

所以,地址空间中总共有 2 20 = 1048576 2^{20} = 1048576 220=1048576 个页面。

总结

  • 页面大小:4096字节(4KB)
  • 地址空间中的总页面数:1048576个页面
20.一个计算机使用32位的虚拟地址,4KB大小的页面。程序和数据都位于最低的页面(0~4095),栈位于最高的页面。如果使用传统(一级)分页,页表中需要多少个表项?如果使用两级分页,每部分有10位,需要多少个页表项?

传统一级分页

首先,我们需要计算页表中所需的表项数量。

页面大小:4KB = 2 12 2^{12} 212 字节

虚拟地址:32位

每个页面的偏移量位数是12位(因为页面大小是4KB),所以页面数需要的位数是:

32 − 12 = 20 32 - 12 = 20 3212=20

因此,虚拟地址空间中总共有 2 20 2^{20} 220 个页面。

一级页表中,每个页面需要一个表项,所以:

一级页表需要的表项数 = 2 20 = 1048576 2^{20} = 1048576 220=1048576 个表项

两级分页

对于两级分页,每个部分使用10位,这意味着:

  • 第一级页表:10位
  • 第二级页表:10位
  • 偏移量:12位(由于页面大小是4KB)

虚拟地址分配如下:

  • 32位虚拟地址
  • 10位用于第一级页表
  • 10位用于第二级页表
  • 12位用于页面内偏移

因此,虚拟地址被分成三部分:

  • 第一级页表域:10位
  • 第二级页表域:10位
  • 页内偏移量:12位

第一级页表有 2 10 2^{10} 210 个表项,每个表项指向一个第二级页表。每个第二级页表也有 2 10 2^{10} 210 个表项。因此:

第一级页表需要的表项数 = 2 10 = 1024 2^{10} = 1024 210=1024 个表项

每个第二级页表需要的表项数 = 2 10 = 1024 2^{10} = 1024 210=1024 个表项

所以,总的页表项数是:

  • 第一级页表:1024个表项
  • 第二级页表:每个第一级页表表项指向一个第二级页表,总共有 1024 × 1024 1024 \times 1024 1024×1024 个表项

总页表项数 = 1024 + 1024 × 1024 = 1024 + 1048576 = 1049600 1024 + 1024 \times 1024 = 1024 + 1048576 = 1049600 1024+1024×1024=1024+1048576=1049600 个表项

总结

  • 传统一级页表:1048576个表项
  • 两级页表:1049600个表项(包含第一级和第二级页表的表项总数)
21.如下是在页大小为512字节的计算机上,一个程序片段的执行轨迹。这个程序在1024地址,其栈指针在8192(栈向0生长)。请给出该程序产生的页面访问串。每个指令(包括立即常数数)占四个字节(一个字)。指令和数据的访问都要在访问串中计数。
  • 将字6144载入寄存器0
  • 寄存器0压栈
  • 调用5120处的程序,将返回地址压栈
  • 栈指针减去立即数16
  • 比较实参和立即数4
  • 如果相等,跳转到5152处

为了确定该程序在执行时产生的页面访问串,我们需要分析每个指令及其相关的内存访问,并将其地址转换为页面编号。页面大小为512字节,所以每个页面的地址范围为512字节。

计算页号的方法

页号 = ⌊ 地址 512 ⌋ \text{页号} = \left\lfloor \frac{\text{地址}}{512} \right\rfloor 页号=512地址

我们将每个指令的地址及其访问的内存地址转换为页面号,并列出访问的页面。

程序片段的执行轨迹

  1. 将字6144载入寄存器0

    • 指令地址:1024
    • 数据地址:6144
    • 页号:
      • 指令页号: ⌊ 1024 512 ⌋ = 2 \left\lfloor \frac{1024}{512} \right\rfloor = 2 5121024=2
      • 数据页号: ⌊ 6144 512 ⌋ = 12 \left\lfloor \frac{6144}{512} \right\rfloor = 12 5126144=12
  2. 寄存器0压栈

    • 指令地址:1028(假设指令在地址1028)
    • 数据地址:栈指针当前为8192,压栈后指针为8188,存储在地址8188
    • 页号:
      • 指令页号: ⌊ 1028 512 ⌋ = 2 \left\lfloor \frac{1028}{512} \right\rfloor = 2 5121028=2
      • 数据页号: ⌊ 8188 512 ⌋ = 15 \left\lfloor \frac{8188}{512} \right\rfloor = 15 5128188=15
  3. 调用5120处的程序,将返回地址压栈

    • 指令地址:1032(假设指令在地址1032)
    • 返回地址:1036(下一条指令地址)
    • 返回地址存储在地址8184(假设栈指针当前为8188,压栈后指针为8184)
    • 页号:
      • 指令页号: ⌊ 1032 512 ⌋ = 2 \left\lfloor \frac{1032}{512} \right\rfloor = 2 5121032=2
      • 返回地址页号: ⌊ 8184 512 ⌋ = 15 \left\lfloor \frac{8184}{512} \right\rfloor = 15 5128184=15
      • 跳转到5120,页号: ⌊ 5120 512 ⌋ = 10 \left\lfloor \frac{5120}{512} \right\rfloor = 10 5125120=10
  4. 栈指针减去立即数16

    • 指令地址:5120(新程序开始处)
    • 栈指针减16,新的栈指针地址为8168
    • 页号:
      • 指令页号: ⌊ 5120 512 ⌋ = 10 \left\lfloor \frac{5120}{512} \right\rfloor = 10 5125120=10
      • 栈指针更新:不产生新的内存访问
  5. 比较实参和立即数4

    • 指令地址:5124(假设指令在地址5124)
    • 实参从栈顶读取,当前栈指针为8168,读取地址为8168
    • 页号:
      • 指令页号: ⌊ 5124 512 ⌋ = 10 \left\lfloor \frac{5124}{512} \right\rfloor = 10 5125124=10
      • 数据页号: ⌊ 8168 512 ⌋ = 15 \left\lfloor \frac{8168}{512} \right\rfloor = 15 5128168=15
  6. 如果相等,跳转到5152处

    • 指令地址:5128(假设指令在地址5128)
    • 跳转到5152,页号: ⌊ 5152 512 ⌋ = 10 \left\lfloor \frac{5152}{512} \right\rfloor = 10 5125152=10

页面访问串

将以上每个步骤产生的页面访问顺序列出:

2, 12, 2, 15, 2, 15, 10, 10, 15, 10

总结

页面访问串:2, 12, 2, 15, 2, 15, 10, 10, 15, 10

22.一台计算机的进程在其地址空间有1024个页面,页表保存在内存中。从页表中读取一个字的开销是5ns。为了减小开销,该计算机使用了TLB,它有32个(虚拟地址,物理页框)对,能在1ns内完成查找。请问把平均开销降到2ns需要的命中率是多少?

为了计算需要的TLB命中率以将平均访问开销降到2ns,我们可以使用以下公式:

平均访问时间 = ( TLB命中率 × TLB访问时间 ) + ( TLB未命中率 × ( TLB访问时间 + 页表访问时间 ) ) \text{平均访问时间} = (\text{TLB命中率} \times \text{TLB访问时间}) + (\text{TLB未命中率} \times (\text{TLB访问时间} + \text{页表访问时间})) 平均访问时间=(TLB命中率×TLB访问时间)+(TLB未命中率×(TLB访问时间+页表访问时间))

已知条件:

  • TLB访问时间:1ns
  • 页表访问时间:5ns
  • 平均访问时间:2ns

设TLB命中率为 h h h,则TLB未命中率为 1 − h 1 - h 1h

将这些值代入公式:

2 = ( h × 1 ) + ( ( 1 − h ) × ( 1 + 5 ) ) 2 = (h \times 1) + ((1 - h) \times (1 + 5)) 2=(h×1)+((1h)×(1+5))

2 = h × 1 + ( 1 − h ) × 6 2 = h \times 1 + (1 - h) \times 6 2=h×1+(1h)×6

2 = h + 6 − 6 h 2 = h + 6 - 6h 2=h+66h

2 = 6 − 5 h 2 = 6 - 5h 2=65h

解这个方程来求 h h h

2 − 6 = − 5 h 2 - 6 = -5h 26=5h

− 4 = − 5 h -4 = -5h 4=5h

h = 4 5 h = \frac{4}{5} h=54

h = 0.8 h = 0.8 h=0.8

所以,要将平均访问时间降到2ns,需要的TLB命中率是80%。

23.TLB需要的相联内存设备如何用硬件实现?这种设计对扩展性意味着什么?

TLB(Translation Lookaside Buffer)的实现通常需要相联内存(associative memory),也称为内容寻址存储器(CAM,Content Addressable Memory)。以下是如何用硬件实现TLB以及这种设计对扩展性的影响:

TLB的硬件实现

  1. 内容寻址存储器(CAM)

    • 地址匹配:TLB的核心组件是内容寻址存储器。当一个虚拟地址被提供时,TLB会在所有存储的表项中并行搜索,以匹配虚拟地址。
    • 并行搜索:CAM能够在一个时钟周期内并行地比较输入地址与所有存储的虚拟地址表项,这使得TLB查找非常快速。
  2. 快速查找

    • 比较逻辑:每个CAM单元都有比较逻辑,当输入的虚拟地址与某个表项匹配时,比较逻辑会输出匹配信号。
    • 输出物理地址:一旦匹配到虚拟地址,TLB会输出相应的物理页框地址。这个过程通常在1ns到几纳秒内完成。
  3. 标志位

    • 有效位:每个TLB表项通常都有一个有效位,用于指示该表项是否包含有效的映射。
    • 访问控制位:TLB表项可能包含读/写权限等控制位,这些位用于管理内存访问权限。

对扩展性的影响

  1. 硬件复杂性

    • 并行比较电路:随着TLB表项数量增加,所需的并行比较电路数量也增加,这会导致硬件设计复杂度显著上升。
    • 功耗:增加表项数量会增加TLB的功耗,因为更多的比较逻辑需要同时工作。
  2. 面积和成本

    • 芯片面积:相联内存的实现需要大量的硬件资源,因此增加TLB的大小会占用更多的芯片面积。
    • 制造成本:由于需要更多的硬件资源和复杂的电路设计,TLB的扩展会增加芯片的制造成本。
  3. 速度和延迟

    • 访问延迟:尽管CAM提供了快速的并行查找能力,但随着表项数量增加,访问延迟可能会略微增加,因为需要处理更多的并行比较操作。
    • 扩展性限制:在非常大的TLB设计中,硬件复杂性和功耗的增加可能会限制TLB的可扩展性。

扩展设计的权衡

  1. 层次化设计

    • 多级TLB:为了应对扩展性问题,可以使用多级TLB结构。例如,一级TLB用于快速缓存常用地址,二级TLB用于缓存更多的地址映射。
    • 混合方法:结合相联存储和直接映射的混合方法可以在性能和成本之间找到平衡。
  2. 软件支持

    • 页表优化:通过操作系统的支持,可以优化页表和TLB的使用,例如减少页表更新频率和预取页表项。
  3. 硬件改进

    • 低功耗设计:通过优化硬件设计,降低功耗和热量产生,以便更好地支持大规模TLB。
    • 新材料和工艺:利用新的半导体材料和制造工艺,可以提升TLB的效率和可扩展性。

总结来说,TLB的相联内存实现虽然提供了高速的地址转换能力,但在扩展性方面存在硬件复杂性、成本和功耗等问题。在设计中需要权衡性能和扩展性,可以通过多级TLB结构和软件优化来缓解这些问题。

24.一台机器有48位虚拟地址和32位物理地址,页面大小是8KB,如果采用一级线性页表,页表中需要多少个表项?

要计算页表中需要多少个表项,我们首先需要知道页面大小和虚拟地址空间的大小。

计算页面大小和页表项数量

  1. 页面大小:8KB = 2 13 2^{13} 213 字节
  2. 虚拟地址:48位
  3. 物理地址:32位

页面偏移量位数

页面大小为8KB,因此页面偏移量的位数是13位:

页面偏移量的位数 = 13 \text{页面偏移量的位数} = 13 页面偏移量的位数=13

虚拟页号位数

虚拟地址空间的总位数为48位,减去页面偏移量的位数,剩余的是虚拟页号的位数:

虚拟页号的位数 = 48 − 13 = 35 \text{虚拟页号的位数} = 48 - 13 = 35 虚拟页号的位数=4813=35

页表项数量

页表中的每个表项对应一个虚拟页,所以页表中需要的表项数是虚拟页号的数量:

页表项的数量 = 2 虚拟页号的位数 = 2 35 \text{页表项的数量} = 2^{\text{虚拟页号的位数}} = 2^{35} 页表项的数量=2虚拟页号的位数=235

因此,页表中需要的表项数量是 2 35 2^{35} 235个表项。

总结

页表中需要的表项数量是 2 35 2^{35} 235 个表项。

25.一个计算机的页面大小为8KB,主存大小为256KB,64GB虚拟地址空间使用倒排页表实现虚拟内存。为了保证平均散列链的长度小于1,散列表应该多大?假设散列表的大小为2的幂

为了计算倒排页表所需的散列表大小,我们需要以下步骤:

  1. 计算主存中的页框数
  2. 计算虚拟地址空间中的页数
  3. 确定散列表大小

1. 计算主存中的页框数

主存大小为256KB,页面大小为8KB:

主存中的页框数 = 主存大小 页面大小 = 256 KB 8 KB = 32 \text{主存中的页框数} = \frac{\text{主存大小}}{\text{页面大小}} = \frac{256 \text{KB}}{8 \text{KB}} = 32 主存中的页框数=页面大小主存大小=8KB256KB=32

主存中有32个页框。

2. 计算虚拟地址空间中的页数

虚拟地址空间为64GB,页面大小为8KB:

虚拟地址空间中的页数 = 虚拟地址空间大小 页面大小 = 64 GB 8 KB \text{虚拟地址空间中的页数} = \frac{\text{虚拟地址空间大小}}{\text{页面大小}} = \frac{64 \text{GB}}{8 \text{KB}} 虚拟地址空间中的页数=页面大小虚拟地址空间大小=8KB64GB

首先,将64GB转换为KB:

64 GB = 64 × 2 30 字节 = 64 × 2 20 KB = 2 26 KB 64 \text{GB} = 64 \times 2^{30} \text{字节} = 64 \times 2^{20} \text{KB} = 2^{26} \text{KB} 64GB=64×230字节=64×220KB=226KB

因此,

虚拟地址空间中的页数 = 2 26 KB 8 KB = 2 26 / 2 3 = 2 23 \text{虚拟地址空间中的页数} = \frac{2^{26} \text{KB}}{8 \text{KB}} = 2^{26} / 2^3 = 2^{23} 虚拟地址空间中的页数=8KB226KB=226/23=223

虚拟地址空间中有 2 23 2^{23} 223 个页面。

3. 确定散列表大小

为了保证平均散列链的长度小于1,散列表的大小应该大于或等于页框数。散列表的大小通常选为2的幂以优化散列算法。因此,散列表的大小应为2的幂且不小于32。

选择最接近且不小于32的2的幂:

2 5 = 32 2^5 = 32 25=32

所以,散列表的大小应为32。

总结

为了保证平均散列链的长度小于1,散列表的大小应为32。

26.一个学生在编译器设计课程中向教授提议了一个项目:编写一个编译器,用来产生页面访问列表,该列表可以用于实现最优页面置换算法。试问这是否可能?为什么?有什么办法可以改进运行时的页面置换效率?

理论上的可能性

最优页面置换算法(Optimal Page Replacement Algorithm,OPT)要求知道未来的页面访问顺序,以便在发生页面置换时选择不会在最近被访问的页面进行置换。编译器在编译时能够分析整个程序的代码,因此在理论上可以生成一个页面访问列表。

实际中的挑战

  1. 运行时动态行为:程序在运行时的行为是动态的,包括用户输入、I/O操作、随机数生成等。这些动态行为在编译时是无法完全预测的,因此编译器无法精确生成未来的页面访问列表。
  2. 程序输入的多样性:不同的输入会导致程序执行不同的路径。编译时无法预知所有可能的输入组合,因此无法准确预测所有的页面访问序列。
  3. 多线程和并行计算:现代程序经常涉及多线程和并行计算,不同线程的交互和调度顺序在编译时无法确定,这增加了预测的复杂性。

改进运行时页面置换效率的方法

尽管生成最优页面访问列表不太现实,但有一些方法可以改进运行时的页面置换效率:

  1. 启发式算法:使用启发式算法(例如LRU、LFU、FIFO等)来近似最优页面置换策略。这些算法在实践中可以获得较好的性能。
  2. 增加物理内存:增加物理内存可以减少页面置换的频率,从而提高整体系统性能。
  3. 预取和缓存优化:通过分析程序的执行模式,进行智能预取和缓存优化。例如,操作系统可以在检测到顺序访问模式时提前预取下一页。
  4. 使用硬件支持:现代处理器通常有硬件支持的内存管理单元(MMU)和TLB来加速页面访问。优化TLB的使用和设计可以提高页面置换效率。
  5. 动态调整页面大小:有些系统支持大页或超页(例如Linux的huge pages)。使用大页可以减少页表项的数量,从而减少页面置换的开销。
  6. 程序优化:通过编译器优化技术(如循环展开、数据局部性优化等),减少页面访问的频率和不必要的页面置换。
27.假设虚拟页码索引流中有一些重复的页索引序列,该序列之后有时会是一个随机的页码索引。例如,序列0,1,…,511,431,0,1,…,511,332,0,1,…中就包含了0,1,…,511的重复,以及跟随在它们之后的随机页码索引431和332
  • 在工作负载比该序列短的情况下,标准的页面置换算法(LRU,FIFO,Clock)在处理换页时为什么效果不好?
  • 如果一个程序分配了500页框,请描述一个效果优于LRU、FIFO或Clock算法的页面置换方法

标准页面置换算法在处理换页时效果不好的原因

对于给定的页面访问序列0, 1, …, 511, 431, 0, 1, …, 511, 332, 0, 1, …,标准的页面置换算法(如LRU、FIFO、Clock)在工作负载比该序列短的情况下效果不好,原因如下:

  1. LRU(Least Recently Used)

    • LRU算法会根据最近使用的情况来决定换出哪些页面。然而,在这个序列中,长的重复页索引序列(0到511)会导致页面反复被访问,刚刚换入的页面还未使用完就被换出。当处理随机页码(如431和332)时,它们很快会被替换,无法充分利用缓存。
  2. FIFO(First In, First Out)

    • FIFO算法会按最早进入内存的页面进行置换。对于这种模式,FIFO可能会在长的重复序列中频繁地替换刚刚加载的页面,尤其是处理随机页码时,它们会很快被替换掉。FIFO无法有效地利用页面访问的时间局部性。
  3. Clock算法

    • Clock算法是LRU的一种近似实现,它使用一个时钟手臂来跟踪最近使用的页面。虽然它比FIFO有所改进,但在处理长的重复序列和随机页码时,仍然会频繁地替换页面,效果也不理想。

优化页面置换方法

为了更好地处理给定的页面访问序列,可以设计一个算法,专门针对这种特定的访问模式进行优化。以下是一个可能的优化方案:

  1. 频率分析和自适应窗口

    • 该算法基于对页面访问模式的频率分析和自适应窗口来优化置换策略。分配500个页框时,算法需要识别长的重复序列并将其保留在内存中,而不是被随机页码替换。
  2. 步骤

    • 检测重复模式:首先,算法会检测页面访问序列中的重复模式。在检测到0到511的重复序列后,将这些页面标记为高频访问页面。
    • 优先保留高频页面:当处理页面置换时,算法会优先保留检测到的高频页面(0到511),并将随机页码(如431和332)分配到特定的页框中。
    • 自适应窗口大小:根据页面访问的频率和模式,自适应地调整缓存窗口的大小和策略,确保高频页面始终驻留在内存中,而随机页码只占用有限的页框。

效果优于LRU、FIFO或Clock算法的示例

假设页面框架有500个,我们可以使用一种称为“频率优先自适应替换(Frequency Priority Adaptive Replacement,FPAR)”的算法:

  1. 初始化

    • 分配500个页框。
    • 保留一个固定大小的窗口用于随机页码。
  2. 检测和标记

    • 在初始阶段,检测和标记高频访问的页面(0到511)。
  3. 置换策略

    • 在访问过程中,优先保留高频页面。随机页码(如431和332)使用LRU或FIFO策略在剩余的页框中进行置换。
    • 自适应调整窗口大小,根据实际页面访问频率动态优化。
  4. 示例执行

    • 当访问0到511时,确保它们始终保留在内存中。
    • 当访问431时,将其置入专门的随机页框窗口。
    • 同样,访问332时,使用LRU或FIFO策略在随机页框窗口中置换。

优势

这种方法通过专门处理高频重复模式和随机页码的分离管理,确保了高频页面始终在内存中,从而减少了页面置换的开销,显著提高了性能。与LRU、FIFO或Clock算法相比,这种方法能够更好地适应特定的页面访问模式,从而提高整体的页面置换效率。

28.如果将FIFO页面置换算法用到4个页框和8个页面上,若初始时页框为空,访问序列串为0172327103,请问会发生多少次缺页中断?如果使用LRU算法呢?

要计算在使用FIFO和LRU页面置换算法时会发生多少次缺页中断,我们可以逐步模拟这两个算法的执行过程。

FIFO页面置换算法

初始状态下,页框为空。我们依次处理访问序列0172327103。我们有4个页框。

  1. 访问页面0:缺页中断,页框状态:[0]
  2. 访问页面1:缺页中断,页框状态:[0, 1]
  3. 访问页面7:缺页中断,页框状态:[0, 1, 7]
  4. 访问页面2:缺页中断,页框状态:[0, 1, 7, 2]
  5. 访问页面3:缺页中断,页框状态:[1, 7, 2, 3](页面0被替换)
  6. 访问页面2:不发生缺页中断,页框状态:[1, 7, 2, 3]
  7. 访问页面7:不发生缺页中断,页框状态:[1, 7, 2, 3]
  8. 访问页面1:不发生缺页中断,页框状态:[1, 7, 2, 3]
  9. 访问页面0:缺页中断,页框状态:[7, 2, 3, 0](页面1被替换)
  10. 访问页面3:不发生缺页中断,页框状态:[7, 2, 3, 0]

FIFO算法缺页中断次数:6次

LRU页面置换算法

初始状态下,页框为空。我们依次处理访问序列0172327103。我们有4个页框。

  1. 访问页面0:缺页中断,页框状态:[0]
  2. 访问页面1:缺页中断,页框状态:[0, 1]
  3. 访问页面7:缺页中断,页框状态:[0, 1, 7]
  4. 访问页面2:缺页中断,页框状态:[0, 1, 7, 2]
  5. 访问页面3:缺页中断,页框状态:[1, 7, 2, 3](页面0被替换)
  6. 访问页面2:不发生缺页中断,页框状态:[1, 7, 3, 2]
  7. 访问页面7:不发生缺页中断,页框状态:[1, 3, 2, 7]
  8. 访问页面1:不发生缺页中断,页框状态:[3, 2, 7, 1]
  9. 访问页面0:缺页中断,页框状态:[2, 7, 1, 0](页面3被替换)
  10. 访问页面3:缺页中断,页框状态:[7, 1, 0, 3](页面2被替换)

LRU算法缺页中断次数:8次

总结

  • FIFO算法缺页中断次数:6次
  • LRU算法缺页中断次数:8次
29.考虑图3-15b中的页面序列。假设从页面B到页面A的R位分别是11011011.使用第二次机会算法,被移走的是哪个页面?

第二次机会页面置换算法是一种改进的FIFO算法,它使用一个参考位(R位)来决定页面是否有第二次机会。如果一个页面的R位是1,则表示该页面在最近被访问过,不会被立即移除,而是将R位置为0并继续检查下一个页面,直到找到一个R位为0的页面将其替换。

页面序列为B, C, D, E, F, G, H, A,参考位的状态为11011011。从B到A,参考位的状态如下:

  • B: 1
  • C: 1
  • D: 0
  • E: 1
  • F: 1
  • G: 0
  • H: 1
  • A: 1

使用第二次机会算法的步骤如下:

  1. 检查B:R位为1,将R位置0,继续检查下一个页面。
  2. 检查C:R位为1,将R位置0,继续检查下一个页面。
  3. 检查D:R位为0,将其替换。

因此,被移走的页面是D。

30.一台小计算机有4个页框。在第一个时钟周期时R位是0111(页面0是0,其他页面是1),在随后的时钟周期中这个值是1011、1010、1101、0010、1010、1100、0001.如果使用带有8位计数器的老化算法,给出最后一个时钟周期后4个计数器的值

老化算法(Aging Algorithm)用于页面置换,它给每个页面一个计数器,用于跟踪页面的使用历史。每个时钟周期,所有页面的计数器值都右移一位,然后根据页面的R位(参考位)将最高位设置为R位的值。

假设每个页面都有一个8位的计数器,初始时所有计数器的值都是0。我们依次处理每个时钟周期并更新计数器值。

初始状态:

计数器值:

  • 页面0: 00000000
  • 页面1: 00000000
  • 页面2: 00000000
  • 页面3: 00000000

时钟周期1(R位:0111):

计数器右移并更新最高位为R位的值:

  • 页面0: 00000000 -> 00000000 (R=0)
  • 页面1: 00000000 -> 10000000 (R=1)
  • 页面2: 00000000 -> 10000000 (R=1)
  • 页面3: 00000000 -> 10000000 (R=1)

时钟周期2(R位:1011):

计数器右移并更新最高位为R位的值:

  • 页面0: 00000000 -> 00000000 (R=1) -> 10000000
  • 页面1: 10000000 -> 01000000 (R=0)
  • 页面2: 10000000 -> 01000000 (R=1) -> 11000000
  • 页面3: 10000000 -> 01000000 (R=1) -> 11000000

时钟周期3(R位:1010):

计数器右移并更新最高位为R位的值:

  • 页面0: 10000000 -> 01000000 (R=1) -> 11000000
  • 页面1: 01000000 -> 00100000 (R=0)
  • 页面2: 11000000 -> 01100000 (R=1) -> 11100000
  • 页面3: 11000000 -> 01100000 (R=0)

时钟周期4(R位:1101):

计数器右移并更新最高位为R位的值:

  • 页面0: 11000000 -> 01100000 (R=1) -> 11100000
  • 页面1: 00100000 -> 00010000 (R=1) -> 10010000
  • 页面2: 11100000 -> 01110000 (R=0)
  • 页面3: 01100000 -> 00110000 (R=1) -> 10110000

时钟周期5(R位:0010):

计数器右移并更新最高位为R位的值:

  • 页面0: 11100000 -> 01110000 (R=0)
  • 页面1: 10010000 -> 01001000 (R=0)
  • 页面2: 01110000 -> 00111000 (R=1) -> 10111000
  • 页面3: 10110000 -> 01011000 (R=0)

时钟周期6(R位:1010):

计数器右移并更新最高位为R位的值:

  • 页面0: 01110000 -> 00111000 (R=1) -> 10111000
  • 页面1: 01001000 -> 00100100 (R=0)
  • 页面2: 10111000 -> 01011100 (R=1) -> 11011100
  • 页面3: 01011000 -> 00101100 (R=0)

时钟周期7(R位:1100):

计数器右移并更新最高位为R位的值:

  • 页面0: 10111000 -> 01011100 (R=1) -> 11011100
  • 页面1: 00100100 -> 00010010 (R=1) -> 10010010
  • 页面2: 11011100 -> 01101110 (R=0)
  • 页面3: 00101100 -> 00010110 (R=0)

时钟周期8(R位:0001):

计数器右移并更新最高位为R位的值:

  • 页面0: 11011100 -> 01101110 (R=0)
  • 页面1: 10010010 -> 01001001 (R=0)
  • 页面2: 01101110 -> 00110111 (R=0)
  • 页面3: 00010110 -> 00001011 (R=1) -> 10001011

最终计数器值:

  • 页面0: 01101110
  • 页面1: 01001001
  • 页面2: 00110111
  • 页面3: 10001011

最后一个时钟周期后4个计数器的值分别是:

  • 页面0: 01101110
  • 页面1: 01001001
  • 页面2: 00110111
  • 页面3: 10001011
31.请给出一个页面访问序列,使得对于这个访问序列,使用Clock算法和LRU算法得到的第一个被置换的页面不同。假设一个进程分配了3个页框,访问串中的页号属于集合0,1,2,3

为了设计一个页面访问序列,使得Clock算法和LRU算法在第一个被置换的页面上有所不同,我们需要利用两个算法的不同特性:

  • LRU算法:总是置换最久未使用的页面。
  • Clock算法:使用一个指针和参考位(R位)来选择置换页面。如果指针所指页面的R位为0,则置换该页面;如果R位为1,则将R位清零并移动指针到下一个页面,直到找到一个R位为0的页面。

假设有3个页框,页面访问序列的页号属于集合{0, 1, 2, 3}。我们设计一个页面访问序列,使得Clock算法和LRU算法的第一个被置换的页面不同。

页面访问序列设计

考虑以下页面访问序列:0, 1, 2, 0, 1, 3

  1. 初始状态

    • 页框为空
  2. 访问页面0

    • LRU:0
    • Clock:0
    • 页框状态:[0, -, -]
  3. 访问页面1

    • LRU:0, 1
    • Clock:0, 1
    • 页框状态:[0, 1, -]
  4. 访问页面2

    • LRU:0, 1, 2
    • Clock:0, 1, 2
    • 页框状态:[0, 1, 2]
  5. 访问页面0

    • LRU:1, 2, 0
    • Clock:1, 2, 0(更新R位)
    • 页框状态:[0, 1, 2]
  6. 访问页面1

    • LRU:2, 0, 1
    • Clock:2, 0, 1(更新R位)
    • 页框状态:[0, 1, 2]
  7. 访问页面3

    • LRU:0, 1, 3(替换页面2)
    • Clock:1, 2, 3(替换页面0)
    • 页框状态:
      • LRU:[0, 1, 3]
      • Clock:[3, 1, 2]

结果分析

在此访问序列中,LRU算法和Clock算法第一次发生页面置换时,置换的页面不同:

  • LRU算法:置换页面2
  • Clock算法:置换页面0

因此,这个访问序列成功地使得Clock算法和LRU算法在第一个被置换的页面上有所不同。

总结

页面访问序列:0, 1, 2, 0, 1, 3

  • LRU算法:第一次置换页面2
  • Clock算法:第一次置换页面0

这个序列证明了Clock算法和LRU算法在第一个被置换的页面上可以有所不同。

32.在图3-20c的工作集时钟算法中,表针指向那个R=0的页面。如果t=400,这个页面将被移除吗?如果t=1000呢?

在图3-20c的工作集时钟算法中,表针指向的页面是页面1213,R位为0,最后一次使用时间为1213。

当前时间为2204,t代表页面的生存时间

页面的生存时间 t t t 是当前时间与页面上次使用时间之间的差值。如果这个差值超过某个阈值(工作集时间窗口),页面将被移除。

判断页面是否会被移除

  1. 当前时间 T = 2204 T = 2204 T=2204

    • 页面1213的上次使用时间为1213,R位为0。
  2. 时间差计算

    • 当前时间与页面上次使用时间的差值为:
      Δ t = 2204 − 1213 = 991 \Delta t = 2204 - 1213 = 991 Δt=22041213=991

如果 t = 400 t = 400 t=400

  • 页面生存时间阈值 t t t 为400,表示如果页面的上次使用时间超过400个时间单位,则页面将被移除。
  • 计算时间差:
    $991 > 400
    $
  • 因此,页面1213将被移除。

如果 t = 1000 t = 1000 t=1000

  • 页面生存时间阈值 t t t为1000,表示如果页面的上次使用时间超过1000个时间单位,则页面将被移除。
  • 计算时间差:
    991 < 1000 991 < 1000 991<1000
  • 因此,页面1213将不会被移除。

结论

  • 如果 t = 400 t = 400 t=400:页面1213将被移除。
  • 如果 t = 1000 t = 1000 t=1000:页面1213将不会被移除。
33.假设工作集时钟页面置换算法使用的 τ \tau τ为两个时钟周期,系统状态如下:
时间戳VRM
06101
19110
29111
37100
44000

其中,标志位V代表有效位,R代表访问位,M代表修改位

  • 如果时钟中断发生在时钟周期10,请给出新的表项内容并给出解释(可以忽略没有改变的表项)
  • 假如没有时钟中断,在时钟周期10,因为向页4发出了一个读请求并发生了缺页中断。请给出新的表项内容并解释(可以忽略没有改变的表项)

情况1:时钟中断发生在时钟周期10

我们需要根据工作集时钟页面置换算法来更新表项。这个算法会检查每个页面的R位,如果R位为1,则将其置为0并移动到下一个页面;如果R位为0且页面的时间戳与当前时钟周期的差值大于τ(两个时钟周期),则该页面会被替换。

当前状态:

时间戳VRM
06101
19110
29111
37100
44000

当前时钟周期:10
τ = 2个时钟周期

我们检查每个页面:

  1. 页0:
    • R位为0
    • 时间戳为6,与当前时钟周期10的差值为4 > τ(2)
    • 因此,页0将被替换

新的表项内容:

时间戳VRM
010100

(页0被替换,时间戳更新为当前时钟周期10,R位和M位置0)

  1. 页1:

    • R位为1,将R位置为0
      新的表项内容:
    时间戳VRM
    19100
  2. 页2:

    • R位为1,将R位置为0
      新的表项内容:
    时间戳VRM
    29101
  3. 页3:

    • R位为0
    • 时间戳为7,与当前时钟周期10的差值为3 > τ(2)
    • 因此,页3将被替换

新的表项内容:

时间戳VRM
310100

(页3被替换,时间戳更新为当前时钟周期10,R位和M位置0)

情况2:时钟周期10发生页4的缺页中断

没有时钟中断,但是在时钟周期10,因为向页4发出了一个读请求并发生了缺页中断。根据工作集时钟算法,我们需要找到一个合适的页面来替换。

当前状态:

时间戳VRM
06101
19110
29111
37100
44000

首先,标记页4为有效页,更新时间戳、R位和M位:

时间戳VRM
410110

(页4变为有效页,时间戳更新为当前时钟周期10,R位置1)

因为发生缺页中断,我们需要替换一个页面。我们从页0开始检查:

  1. 页0:
    • R位为0
    • 时间戳为6,与当前时钟周期10的差值为4 > τ(2)
    • 因此,页0将被替换

新的表项内容:

时间戳VRM
010100

(页0被替换,时间戳更新为当前时钟周期10,R位和M位置0)

总结

时钟中断发生在时钟周期10时:

时间戳VRM
010100
19100
29101
310100

时钟周期10发生页4的缺页中断时:

时间戳VRM
010100
410110
34.一个学生声称:“抽象来看,除了选取替代页面使用的属性不同外,基本页面置换算法(FIFO,LRU,最优算法)都相同”
  • FIFO、LRU、最优算法使用的属性是什么?
  • 请给出这些页面置换算法的通用算法

页面置换算法使用的属性

  1. FIFO(First-In-First-Out)
    • 属性:页面被加载到内存中的时间。
    • 策略:最先进入内存的页面最先被置换出去。
  2. LRU(Least Recently Used)
    • 属性:页面上一次被访问的时间。
    • 策略:最近最少使用的页面被置换出去。
  3. 最优算法(Optimal Page Replacement)
    • 属性:页面将来被访问的时间。
    • 策略:在未来最久不再被使用的页面被置换出去。

通用页面置换算法

尽管这些算法在选取替换页面时使用的属性不同,但它们的基本结构可以抽象为一个通用的算法框架:

  1. 页面访问:当一个页面被访问时,检查它是否在内存中。
  2. 页面命中:如果页面在内存中,更新其相关属性。
  3. 页面缺失:如果页面不在内存中,选择一个页面进行置换,将新的页面加载到内存中,并更新相关属性。

通用算法框架

以下是一个通用的页面置换算法的框架,适用于FIFO、LRU和最优算法:

每个算法类都继承自一个基类 PageReplacementAlgorithm,并实现了其特有的页面置换逻辑。

通用基类

#include <iostream>
#include <vector>
#include <unordered_map>
#include <list>
#include <algorithm>
#include <ctime>

class PageReplacementAlgorithm {
protected:
    int numFrames;
    std::vector<int> frames;
    std::unordered_map<int, int> pageInfo;

public:
    PageReplacementAlgorithm(int numFrames) : numFrames(numFrames) {}

    virtual void accessPage(int page) {
        auto it = std::find(frames.begin(), frames.end(), page);
        if (it != frames.end()) {
            // Page hit, update page info
            updatePageInfo(page);
        } else {
            // Page miss, replace a page
            if (frames.size() >= numFrames) {
                replacePage();
            }
            frames.push_back(page);
            pageInfo[page] = getInitialPageInfo(page);
        }
    }

    virtual void updatePageInfo(int page) = 0;
    virtual void replacePage() = 0;
    virtual int getInitialPageInfo(int page) = 0;

    void printFrames() {
        for (int page : frames) {
            std::cout << page << " ";
        }
        std::cout << std::endl;
    }
};

FIFO算法

class FIFO : public PageReplacementAlgorithm {
    std::list<int> pageOrder;

public:
    FIFO(int numFrames) : PageReplacementAlgorithm(numFrames) {}

    void updatePageInfo(int page) override {
        // FIFO does not need to update page info
    }

    void replacePage() override {
        int pageToReplace = pageOrder.front();
        pageOrder.pop_front();
        frames.erase(std::remove(frames.begin(), frames.end(), pageToReplace), frames.end());
        pageInfo.erase(pageToReplace);
    }

    int getInitialPageInfo(int page) override {
        pageOrder.push_back(page);
        return 0;  // FIFO does not need specific page info
    }
};

LRU算法

class LRU : public PageReplacementAlgorithm {
    std::unordered_map<int, time_t> pageTimes;

public:
    LRU(int numFrames) : PageReplacementAlgorithm(numFrames) {}

    void updatePageInfo(int page) override {
        pageTimes[page] = std::time(nullptr);
    }

    void replacePage() override {
        auto lruPage = std::min_element(pageTimes.begin(), pageTimes.end(), [](const auto &a, const auto &b) {
            return a.second < b.second;
        });
        int pageToReplace = lruPage->first;
        frames.erase(std::remove(frames.begin(), frames.end(), pageToReplace), frames.end());
        pageTimes.erase(pageToReplace);
        pageInfo.erase(pageToReplace);
    }

    int getInitialPageInfo(int page) override {
        time_t currentTime = std::time(nullptr);
        pageTimes[page] = currentTime;
        return static_cast<int>(currentTime);
    }
};

最优算法

class Optimal : public PageReplacementAlgorithm {
    std::vector<int> futureReferences;
    int referenceIndex;

public:
    Optimal(int numFrames, const std::vector<int>& futureReferences) : PageReplacementAlgorithm(numFrames), futureReferences(futureReferences), referenceIndex(0) {}

    void updatePageInfo(int page) override {
        if (referenceIndex < futureReferences.size()) {
            pageInfo[page] = futureReferences[referenceIndex++];
        } else {
            pageInfo[page] = INT_MAX;  // No future reference available
        }
    }

    void replacePage() override {
        auto farthestPage = std::max_element(pageInfo.begin(), pageInfo.end(), [](const auto &a, const auto &b) {
            return a.second < b.second;
        });
        int pageToReplace = farthestPage->first;
        frames.erase(std::remove(frames.begin(), frames.end(), pageToReplace), frames.end());
        pageInfo.erase(pageToReplace);
    }

    int getInitialPageInfo(int page) override {
        if (referenceIndex < futureReferences.size()) {
            return futureReferences[referenceIndex++];
        } else {
            return INT_MAX;  // No future reference available
        }
    }
};

示例使用

int main() {
    FIFO fifo(3);
    fifo.accessPage(0);
    fifo.accessPage(1);
    fifo.accessPage(2);
    fifo.accessPage(3);  // This will trigger page replacement
    fifo.printFrames();

    LRU lru(3);
    lru.accessPage(0);
    lru.accessPage(1);
    lru.accessPage(2);
    lru.accessPage(3);  // This will trigger page replacement
    lru.printFrames();

    std::vector<int> futureReferences = {4, 0, 1, 2, 3};
    Optimal optimal(3, futureReferences);
    optimal.accessPage(0);
    optimal.accessPage(1);
    optimal.accessPage(2);
    optimal.accessPage(3);  // This will trigger page replacement
    optimal.printFrames();

    return 0;
}

解释

  • PageReplacementAlgorithm 是一个基类,定义了页面置换算法的基本框架。
  • FIFOLRUOptimal 分别实现了其特有的页面置换逻辑。
  • printFrames 方法用于输出当前页框中的页面。
  • 示例使用部分展示了如何使用这三个算法。
35.从平均寻道时间10ms、旋转延迟时间10ms、每磁道32KB的磁盘上载入一个64KB的程序,对于下列页面大小分别需要多少时间?
  • 页面大小为2KB
  • 页面大小为4KB

假设页面随机分布在磁盘上,柱面的数目非常大,以致于两个页面在同一个柱面的概率可以忽略不计

要计算从磁盘上加载64KB程序所需的时间,我们需要考虑以下因素:

  1. 平均寻道时间:10ms
  2. 旋转延迟时间:10ms
  3. 每磁道大小:32KB
  4. 页面大小:2KB 和 4KB
  5. 程序大小:64KB

由于页面随机分布在磁盘上,我们假设每次读取页面时,都需要经历一次平均寻道时间和一次旋转延迟时间。

页面大小为2KB

  1. 计算页面数量

    • 64KB / 2KB = 32个页面
  2. 每次读取页面所需时间

    • 平均寻道时间:10ms
    • 旋转延迟时间:10ms
    • 数据传输时间(忽略不计,因为每次读取的数据量较小)
  3. 每个页面的读取时间
    10 ms + 10 ms = 20 ms 10\text{ms} + 10\text{ms} = 20\text{ms} 10ms+10ms=20ms

  4. 总时间

    • 总时间 = 每个页面的读取时间 × 页面数量
      20 ms × 32 = 640 ms 20\text{ms} \times 32 = 640\text{ms} 20ms×32=640ms

页面大小为4KB

  1. 计算页面数量

    • 64KB / 4KB = 16个页面
  2. 每次读取页面所需时间

    • 平均寻道时间:10ms
    • 旋转延迟时间:10ms
    • 数据传输时间(忽略不计,因为每次读取的数据量较小)
  3. 每个页面的读取时间
    10 ms + 10 ms = 20 ms 10\text{ms} + 10\text{ms} = 20\text{ms} 10ms+10ms=20ms

  4. 总时间

    • 总时间 = 每个页面的读取时间 × 页面数量
      20 ms × 16 = 320 ms 20\text{ms} \times 16 = 320\text{ms} 20ms×16=320ms

总结

  • 页面大小为2KB:总读取时间为640ms
  • 页面大小为4KB:总读取时间为320ms

通过上述计算,可以看出页面大小越大,读取整个程序所需的总时间越少。这是因为每个页面读取所需的固定开销(寻道时间和旋转延迟时间)会减少。

36.一个计算机有4个页框,载入时间、最近一次访问时间和每个页的R位和M位如下所示(时间以一个时钟周期为单位):
页面载入时间最近一次访问时间RM
012628010
123026501
214027000
311028511
  1. NRU算法将置换哪个页面?
  2. FIFO算法将只换哪个页面?
  3. LRU算法将置换哪个页面?
  4. 第二次机会算法将置换哪个页面?

NRU算法

NRU(Not Recently Used)算法将页面分为四类,根据R位和M位的不同组合进行分类,然后选择优先级最高的类别中的一个页面进行置换。

  • 类别 0:R = 0,M = 0
  • 类别 1:R = 0,M = 1
  • 类别 2:R = 1,M = 0
  • 类别 3:R = 1,M = 1

我们将页面按NRU算法的优先级分类:

  • 页面 0:类别 2(R = 1,M = 0)
  • 页面 1:类别 1(R = 0,M = 1)
  • 页面 2:类别 0(R = 0,M = 0)
  • 页面 3:类别 3(R = 1,M = 1)

NRU算法会选择优先级最高的类别进行置换,这里类别0优先级最高,所以页面2会被置换。

NRU算法将置换页面:2

FIFO算法

FIFO(First-In-First-Out)算法选择最早进入内存的页面进行置换。

  • 页面 0:载入时间 126
  • 页面 1:载入时间 230
  • 页面 2:载入时间 140
  • 页面 3:载入时间 110

最早进入内存的是页面 3(载入时间110)。

FIFO算法将置换页面:3

LRU算法

LRU(Least Recently Used)算法选择最近最少使用的页面进行置换。

  • 页面 0:最近一次访问时间 280
  • 页面 1:最近一次访问时间 265
  • 页面 2:最近一次访问时间 270
  • 页面 3:最近一次访问时间 285

最近最少使用的是页面 1(最近一次访问时间265)。

LRU算法将置换页面:1

第二次机会算法

第二次机会算法是基于FIFO的算法,但在置换之前检查页面的R位。如果R位为1,则将其重置为0并移到队列末尾,继续检查下一个页面。

初始队列(按FIFO顺序):页面 3 -> 页面 0 -> 页面 2 -> 页面 1

  1. 检查页面 3:
    • R = 1,将R位置为0,并移到队列末尾。
  2. 检查页面 0:
    • R = 1,将R位置为0,并移到队列末尾。
  3. 检查页面 2:
    • R = 0,选择页面 2 进行置换。

第二次机会算法将置换页面:2

总结

  • NRU算法:置换页面 2
  • FIFO算法:置换页面 3
  • LRU算法:置换页面 1
  • 第二次机会算法:置换页面 2
37.假设有两个进程A和B,共享一个不在内存的页。如果进程A在共享页发生了缺页,当该页读入内存时,A的页表项必须更新
  1. 在什么条件下,即使进程A的缺页中断处理会将共享页装入内存,B的页表更新也会延迟?
  2. 延迟页表更新会有什么潜在开销?

1. 进程A的缺页中断处理将共享页装入内存,但进程B的页表更新可能延迟的条件

在操作系统中,多个进程可以共享同一个页。这种共享可能发生在以下几种情况下:

  • 共享内存段:两个进程共享某些内存段,例如共享库、共享数据结构等。
  • 线程间共享:在多线程程序中,线程共享同一地址空间。

即使进程A的缺页中断处理将共享页装入内存,但进程B的页表更新可能会延迟,主要条件包括:

  1. Lazy Update(懒更新):操作系统采用懒更新策略,即只有在进程B实际访问该页时才更新其页表。这样可以减少不必要的页表更新操作。
  2. Context Switch(上下文切换):进程A和进程B没有发生上下文切换,进程B未被调度运行。在这种情况下,操作系统可能暂时不更新进程B的页表,直到进程B被调度运行并实际访问该页。
  3. 性能优化:为了提高性能,操作系统可能批量处理页表更新。在这种情况下,页表更新操作会被延迟,直到有一定数量的页表更新需要处理时才一起执行。
  4. 页表缓存(TLB):TLB(Translation Lookaside Buffer)缓存可能导致延迟。如果进程B在共享页被装入内存之前已经缓存了其他页表项,只有在TLB被刷新的时候才会更新。

2. 延迟页表更新的潜在开销

延迟页表更新会带来以下潜在开销:

  1. 缺页中断处理时间增加

    • 当进程B尝试访问该共享页时,会再次触发缺页中断,从而增加缺页中断处理时间。这会导致进程B的执行被进一步延迟,影响其性能。
  2. 增加上下文切换开销

    • 如果进程B在延迟更新期间被调度运行,上下文切换的开销会增加,因为操作系统必须处理额外的页表更新操作,导致上下文切换时间变长。
  3. TLB刷新开销

    • 在延迟更新的情况下,当进程B需要访问该共享页时,可能需要刷新TLB(Translation Lookaside Buffer),以确保TLB中的页表项是最新的。这会带来额外的开销。
  4. 内存一致性问题

    • 延迟更新可能会导致内存一致性问题。如果共享页的内容在装入内存后被修改,而进程B的页表未及时更新,可能会导致进程B访问过期的数据,影响程序的正确性。
  5. 额外的页表遍历开销

    • 延迟更新可能需要操作系统在进程B实际访问该页时再次遍历页表,增加额外的页表遍历开销,影响内存访问性能。

总结

  • 条件:进程A的缺页中断处理将共享页装入内存,但进程B的页表更新可能延迟的条件包括懒更新策略、上下文切换、性能优化和页表缓存(TLB)等。
  • 潜在开销:延迟页表更新可能带来缺页中断处理时间增加、上下文切换开销增加、TLB刷新开销、内存一致性问题和额外的页表遍历开销。
38.有二维数组:
int X[64][64];

假设系统中有四个页框,每个页框大小为128个字(一个整数占用一个字)。处理数组X的程序刚好可以放在一页中,而且总是占用0号页。数据会在其他3个页框中被换入或换出。数组X为按行存储。下面两段代码中,哪一个会有最少的缺页中断?请解释原因,并计算缺页中断的总数

A段
for(int j=0;j<64;j++)
	for(int i=0;i<64;i++)
		X[i][j]=0;
B段
for(int i=0;i<64;i++)
	for(int j=0;j<64;j++)
		X[i][j]=0;

为了确定哪段代码会产生最少的缺页中断,我们需要分析每段代码的内存访问模式和它们在页框中的行为。

分析

代码 A 段

for(int j = 0; j < 64; j++)
    for(int i = 0; i < 64; i++)
        X[i][j] = 0;

在代码 A 段中,内存访问是按列进行的。即首先访问 X[0][0], X[1][0], …, X[63][0],然后访问 X[0][1], X[1][1], …, X[63][1],以此类推。由于数组按行存储,这意味着每次切换列时都会访问不同的内存页。

代码 B 段

for(int i = 0; i < 64; i++)
    for(int j = 0; j < 64; j++)
        X[i][j] = 0;

在代码 B 段中,内存访问是按行进行的。即首先访问 X[0][0], X[0][1], …, X[0][63],然后访问 X[1][0], X[1][1], …, X[1][63],以此类推。由于数组按行存储,这意味着每次访问一行时,数据都在相邻的内存中,减少了页切换的次数。

计算缺页中断的总数

我们需要计算每段代码在访问数组时会产生多少次缺页中断。假设每个页框可以容纳 128 个字(整数),即每个页框可以容纳 2 行(128 / 64 = 2)。

代码 A 段的缺页中断

在代码 A 段中,每次访问一个新的列时,会访问新的页框。考虑到每个页框可以容纳 2 行,当访问 X[i][j] 时,i 的范围是 0 到 63,而 j 的范围是 0 到 63。

每次内循环(j)的开始,都会导致一次新的页访问。在 64 列中,每两列访问一页,这意味着总共会有 64 / 2 = 32 次页框切换。由于有 4 个页框,其中一个页框总是用于程序本身,因此有 3 个可用于数据。每次新的列开始时,都会有一次缺页中断。因此,代码 A 段的缺页中断次数为:64

代码 B 段的缺页中断

在代码 B 段中,每次访问一个新的行时,访问的数据都会在相同的页框中。由于每个页框可以容纳 2 行,这意味着访问 64 行中,每次新的两行开始时会有一次新的页框切换。总共会有 64 / 2 = 32 次页框切换。由于有 4 个页框,其中一个页框总是用于程序本身,因此有 3 个可用于数据。每次新的两行开始时,都会有一次缺页中断。因此,代码 B 段的缺页中断次数为:

64 / 2 = 32

结论

代码 B 段的缺页中断次数少于代码 A 段的缺页中断次数。原因是代码 B 段是按行访问的,而数据是按行存储的,这样减少了页切换的频率。

因此,代码 B 段会有最少的缺页中断,总共32次,而代码 A 段会有64次缺页中断。

39.假如你被一家云计算公司雇佣,该公司在它的每个数据中心都部署了成千上万的服务器。公司最近听说了一个好方法:在服务器A上处理缺页中断时,是通过读取其他服务器的RAM中的缺页,以代替从本地磁盘读取页面。
  1. 这种方法如何实现?
  2. 在什么条件下该方法是有价值的、有效的?

1. 这种方法如何实现?

这种方法的实现被称为“远程内存访问”(Remote Memory Access, RMA)或“远程页面交换”(Remote Page Swapping)。其核心思想是,当服务器A发生缺页中断时,不是从本地磁盘读取页面,而是从其他服务器的RAM中读取页面。这种方式需要以下步骤:

  1. 页面目录:每个数据中心中的所有服务器维护一个全局页面目录,记录每个页面的位置(包括页面的物理地址和所在服务器)。

  2. 缺页中断处理程序:当服务器A发生缺页中断时,缺页中断处理程序首先查阅全局页面目录,确定所需页面是否存在于其他服务器的RAM中。

  3. 远程内存访问:如果页面存在于其他服务器的RAM中,使用远程直接内存访问(RDMA)技术将页面从该服务器的RAM读取到服务器A的RAM中。RDMA允许在不经过操作系统内核的情况下直接访问远程内存,减少延迟和开销。

  4. 页面缓存:为了减少频繁的远程访问,可以在本地RAM中缓存常用的页面,以提高访问速度。

  5. 同步和一致性:需要保证在多个服务器之间页面的一致性,特别是对于那些可能被多个服务器并发访问和修改的页面。可以采用分布式一致性协议(如分布式锁)来实现。

2. 在什么条件下该方法是有价值的、有效的?

该方法在以下条件下是有价值的和有效的:

  1. 高频率的缺页中断:如果系统频繁发生缺页中断,而本地磁盘访问时间相对较长,则远程内存访问可以显著减少页面读取时间,提高系统性能。

  2. 低网络延迟:数据中心内部网络延迟较低,使用RDMA等技术可以在低延迟情况下快速读取远程内存中的页面,减少缺页中断的处理时间。

  3. 高内存利用率:不同服务器的内存利用率差异较大,有些服务器的内存使用率低,存在大量空闲内存,而其他服务器则内存紧张。这种情况下,远程页面交换可以有效利用分布式内存资源,提升整体内存利用效率。

  4. 一致性需求较低:应用程序对页面的一致性需求较低,减少分布式一致性协议的开销。如果应用程序对数据一致性有较高要求,需要采取有效的分布式一致性协议,以避免数据不一致问题。

  5. 负载均衡和冗余:通过远程内存访问,可以在多个服务器之间分担内存负载,实现负载均衡。同时,如果某台服务器发生故障,其他服务器可以快速接管其内存页面,提供冗余保护,提升系统的可靠性。

总结

通过利用远程内存访问技术,可以显著减少缺页中断处理时间,提高系统性能。在数据中心内部低延迟网络环境和不同服务器内存利用率差异较大的情况下,这种方法特别有效。然而,需要注意数据一致性问题,并采取适当的分布式一致性协议。

40.DEC PDP-1是最早的分时计算机之一,有4K个18位字的内存。在每个时刻决定运行另一个进程时,将内存中的进程写到一个换页磁鼓上,磁鼓的表面有4K个18位字。磁鼓可以从任何字开始读写,而不是仅仅在字0.请解释为什么要选这样的磁鼓?

选择这样一种可以从任何字开始读写的磁鼓,是为了优化性能并减少上下文切换的开销。以下是具体原因:

1. 减少等待时间

传统的磁鼓存储设备需要在特定位置开始读写操作,例如字0。这样,当需要写入或读取进程数据时,如果磁鼓正在某个不合适的位置,系统可能需要等待磁鼓旋转到合适的位置才能开始读写。这会引入额外的等待时间,增加上下文切换的开销。

通过设计成可以从任何字开始读写的磁鼓,系统可以立即在当前磁鼓位置开始读写操作,而不必等待旋转到特定位置。这显著减少了等待时间,提高了数据传输效率。

2. 提高上下文切换速度

在分时计算系统中,快速的上下文切换对于系统性能至关重要。上下文切换涉及保存当前进程的状态(即内存内容)并加载下一个进程的状态。传统磁鼓需要等待旋转到特定位置,这会拖慢上下文切换的速度。

可以从任意位置读写的磁鼓允许系统立即开始保存或加载进程数据,从而加快上下文切换的速度,提高系统的响应时间和整体性能。

3. 增加灵活性

这种设计提供了更大的灵活性。在多任务环境中,磁鼓的当前读写位置可能是随机的,如果只能从字0开始读写,系统需要频繁调整和优化磁鼓的位置。这不仅增加了复杂性,还可能导致性能下降。

允许从任意位置读写的磁鼓消除了这些限制,系统可以更灵活地处理各种读写请求,提高了资源的利用效率。

4. 减少机械磨损

磁鼓存储设备有机械部件,通过避免频繁的旋转调整,可以减少机械磨损,延长设备寿命。允许从任何位置开始读写减少了不必要的旋转操作,有助于维护设备的可靠性和稳定性。

总结

选择可以从任何字开始读写的磁鼓,是为了优化分时计算环境中的性能。通过减少等待时间、加快上下文切换速度、增加系统灵活性和减少机械磨损,这种设计显著提升了系统的整体效率和响应能力。这对于早期的分时计算机DEC PDP-1来说,是一项重要的优化,使其能够更有效地支持多任务处理和快速上下文切换。

41.一台计算机为每个进程提供了65536字节的地址空间,这个地址空间被划分为多个4KB的页面。一个特定的程序有32768字节的正文、16386字节的数据和15870字节的堆栈。这个程序能装入这个机器的地址空间吗?如果页面大小是512字节,能放得下吗?记住,一个页面不能同时包含两个或者更多的不同种类段。例如,一页里不要能同时有代码段和数据段

要判断这个程序是否能装入机器的地址空间,需要计算其各个段所需的页面数量,并确保其总量不超过可用的页面数量。我们分别计算页面大小为4KB和512字节时的情况。

页面大小为4KB时

  1. 正文段:32768字节

    • 需要的页面数 = ⌈ 32768 4096 ⌉ = ⌈ 8 ⌉ = 8 \lceil \frac{32768}{4096} \rceil = \lceil 8 \rceil = 8 409632768=8=8
  2. 数据段:16386字节

    • 需要的页面数 = ⌈ 16386 4096 ⌉ = ⌈ 4.002 ⌉ = 5 \lceil \frac{16386}{4096} \rceil = \lceil 4.002 \rceil = 5 409616386=4.002=5
  3. 堆栈段:15870字节

    • 需要的页面数 = ⌈ 15870 4096 ⌉ = ⌈ 3.875 ⌉ = 4 \lceil \frac{15870}{4096} \rceil = \lceil 3.875 \rceil = 4 409615870=3.875=4

总页数 = 8(正文) + 5(数据) + 4(堆栈) = 17 页

4KB页面大小下,一个进程的地址空间为65536字节:

  • 可用页面数 = 65536 4096 = 16 \frac{65536}{4096} = 16 409665536=16

由于17页大于16页,因此程序无法装入地址空间

页面大小为512字节时

  1. 正文段:32768字节

    • 需要的页面数 = ⌈ 32768 512 ⌉ = ⌈ 64 ⌉ = 64 \lceil \frac{32768}{512} \rceil = \lceil 64 \rceil = 64 51232768=64=64
  2. 数据段:16386字节

    • 需要的页面数 = ⌈ 16386 512 ⌉ = ⌈ 32.001 ⌉ = 33 \lceil \frac{16386}{512} \rceil = \lceil 32.001 \rceil = 33 51216386=32.001=33
  3. 堆栈段:15870字节

    • 需要的页面数 = ⌈ 15870 512 ⌉ = ⌈ 31.002 ⌉ = 32 \lceil \frac{15870}{512} \rceil = \lceil 31.002 \rceil = 32 51215870=31.002=32

总页数 = 64(正文) + 33(数据) + 32(堆栈) = 129 页

512字节页面大小下,一个进程的地址空间为65536字节:

  • 可用页面数 = 65536 512 = 128 \frac{65536}{512} = 128 51265536=128

由于129页大于128页,因此程序无法装入地址空间

结论

无论页面大小是4KB还是512字节,程序都不能装入提供的65536字节的地址空间,因为所需的页面数都超出了可用的页面数。

42.人们已经观察到在两次缺页中断之间执行的指令数与分配给程序的页框数直接成比例。如果可用内存加倍,缺页中断间的平均间隔也加倍。假设一条普通指令需要1ms,但是如果发生了缺页中断就需要2ms。假设一个程序运行了60s,期间发生了15000次缺页中断,如果可用内存是原来的两倍,那么这个程序运行需要多少时间?

首先,我们先分析一下给定的数据和情况:

  1. 原始内存大小时,程序运行了60秒,期间发生了15000次缺页中断。
  2. 每次缺页中断处理的额外时间是1ms(因为正常指令需要1ms,缺页中断需要2ms,所以额外时间是1ms)。
  3. 如果内存加倍,缺页中断间的平均间隔也加倍,意味着缺页中断的频率减半。

根据这些信息,我们可以计算原始情况下每次指令的平均执行时间,包括正常指令和处理缺页中断的时间。

原始情况的计算:

  • 总执行指令数 $I $:程序运行时间 T T T 除以每条指令的时间 t i t_i ti ,其中 T = 60 T = 60 T=60 秒, $ t_i = 1$ 毫秒。
    I = T t i = 60 × 1000 1 = 60000  指令 I = \frac{T}{t_i} = \frac{60 \times 1000}{1} = 60000 \text{ 指令} I=tiT=160×1000=60000 指令

  • 缺页中断处理的总额外时间:
    T 额外 = 15000 × 1  毫秒 = 15000  毫秒 = 15  秒 T_{\text{额外}} = 15000 \times 1 \text{ 毫秒} = 15000 \text{ 毫秒} = 15 \text{ 秒} T额外=15000×1 毫秒=15000 毫秒=15 

  • 程序的实际总运行时间应当是:
    T 总 = T + T 额外 = 60  秒 + 15  秒 = 75  秒 T_{\text{总}} = T + T_{\text{额外}} = 60 \text{ 秒} + 15 \text{ 秒} = 75 \text{ 秒} T=T+T额外=60 +15 =75 

内存加倍的情况计算:

  • 缺页中断次数减半,即 7500 次。

  • 缺页中断处理的总额外时间变为:
    T 额外, 新 = 7500 × 1  毫秒 = 7500  毫秒 = 7.5  秒 T_{\text{额外, 新}} = 7500 \times 1 \text{ 毫秒} = 7500 \text{ 毫秒} = 7.5 \text{ 秒} T额外=7500×1 毫秒=7500 毫秒=7.5 

  • 新的总运行时间:
    T 总, 新 = T + T 额外, 新 = 60  秒 + 7.5  秒 = 67.5  秒 T_{\text{总, 新}} = T + T_{\text{额外, 新}} = 60 \text{ 秒} + 7.5 \text{ 秒} = 67.5 \text{ 秒} T=T+T额外=60 +7.5 =67.5 

所以,如果可用内存加倍,程序的运行时间会是67.5秒。

43.Frugal计算公司有一组操作系统设计人员,他们正在考虑一种方法,以在新操作系统中减少对后备存储数量的需求。老板建议根本不要把程序正文保存在交换区中,而是在需要的时候直接从二进制文件中调页过来。在什么条件下(如果有这样的条件话),这种想法适用于程序文本?在什么条件下(如果有这样的条件话),这种想法适用于数据?

Frugal计算公司的想法,即在操作系统中不将程序正文保存在交换区中而是在需要时直接从二进制文件中调页,是一种可以节约后备存储空间的策略。这种方法的适用性取决于程序正文和数据的特性以及系统的特定需求。下面分别探讨程序正文和数据的情况。

程序正文

程序正文是静态的,即它在程序运行过程中不会被修改。因此,直接从二进制文件调页是可行的,因为程序正文的每一部分始终保持不变。在以下条件下,这种方法特别适用:

  1. 只读性质:由于程序正文是只读的,从原始的二进制文件中调入页面不会引起一致性问题,因为文件的内容不会改变。
  2. 高效的文件系统:文件系统需要能够快速定位和读取二进制文件中的指定部分,这样页面调入的性能才不会成为系统瓶颈。
  3. 足够的内存和缓存机制:虽然不使用交换区可以节省存储空间,但系统应有足够的物理内存来管理在内存中的页面,并且高效的缓存机制可以减少从二进制文件读取数据的延迟。

数据

对于数据部分,情况则大不相同。数据在程序运行过程中往往会被修改,因此不能简单地从原始文件调入数据页面。在以下情况下,直接从文件系统调入数据页面可能不适用:

  1. 修改频繁:数据页面如果经常修改,则需要在内存中维护修改后的副本,并且在必要时将这些页面写回到某种形式的存储系统中,这就需要使用交换区或类似机制。
  2. 持久化要求:如果数据修改需要持久化,那么仅仅依赖于内存存储是不安全的,需要有持久化存储的支持。
  3. 数据恢复和备份:在系统崩溃或重启的情况下,需要从持久化存储中恢复数据,如果不使用交换区或相似技术,数据恢复将变得复杂或不可能。

总之,将程序正文直接从二进制文件调页是一个合理的策略,因为它是静态且只读的。但对于数据部分,由于其动态性和修改的需要,通常不适用这种策略,需要依赖交换区或其他形式的持久化存储来保证数据的安全和一致性。

44.有一条机器语言指令将要被调入,该指令可把一个32位字装入含有32位字地址的寄存器。这个指令可能引起的最大缺页中断次数是多少?

要确定一条机器语言指令可能引起的最大缺页中断次数,我们需要分析指令执行时访问的内存和可能涉及的缺页情况。考虑到这条指令将一个32位字装入一个含有32位字地址的寄存器,我们可以假设该指令涉及到以下几个步骤:

  1. 获取指令本身:如果指令本身所在的内存页面不在内存中,这将导致一个缺页中断。

  2. 读取寄存器中的地址:通常寄存器的值是立即可用的,因此不会引起缺页中断。

  3. 访问该地址指向的内存位置:如果该内存位置(32位字)所在的页面不在内存中,这将导致另一个缺页中断。

因此,理论上,这条指令在最坏的情况下可以引起的缺页中断次数为:

  • 一次,因为指令本身不在内存中。
  • 一次,因为指令指向的数据不在内存中。

所以,总共可能的最大缺页中断次数是两次:

  1. 一次用于将指令本身调入内存。
  2. 一次用于将指令要操作的数据调入内存。
45.解释内部分段和外部分段的区别。分页系统用的是哪一种?纯分段的系统用的又是哪一种?

内部分段和外部分段是两种不同的内存管理策略,主要用于操作系统如何处理程序的内存分配和管理。这两种概念可以根据内存分配的细节和实现进行区分。下面是对这两种分段方式的解释,以及分页系统和纯分段系统分别使用哪种方式的说明。

内部分段 (Internal Fragmentation)

内部分段发生在分配给程序的内存区块中未被完全使用的情况。当内存分配单位固定,如在分页系统中,每个页面有固定的大小(例如4KB),而程序所需内存不完全匹配这些单位时,就会发生内部分段。比如,如果程序需要10.5KB的内存,系统可能会分配3个4KB的页面(总共12KB),这样就会有1.5KB的内存未被使用,导致内部分段。

外部分段 (External Fragmentation)

外部分段发生在内存中,由于多次分配和回收内存块造成的空闲内存块分散在各处,导致无法连续分配足够的大块内存,即使总空闲内存量可能足够。这通常出现在使用动态内存分配策略的系统中,如纯分段系统,其中内存分配不基于固定大小的单元,而是根据程序的需求动态分配。

分页系统

分页系统使用的是内部分段。在分页系统中,内存被划分为固定大小的页,系统以页为单位来管理内存。由于每页的大小固定,当程序的内存需求不恰好是页面大小的整数倍时,就会产生内部分段。

纯分段系统

纯分段系统使用的是外部分段。在纯分段系统中,内存按照逻辑分段来组织,每个段对应程序的逻辑部分,如函数、数据结构等。段的大小根据实际需求动态确定,这样更加灵活,但可能导致内存中出现许多小的空闲块,从而造成外部分段。

46.在MULTICS中,当同时使用分段和分页时,首先必须查找段描述符,然后是页描述符。TLB也是这样按两级查找的方式工作吗?

在MULTICS(一个早期的操作系统,以其安全性和创新的内存管理著称)中,系统同时使用了分段和分页的内存管理策略。这种结合的目的是充分利用两种方法的优点:分段提供了更好的逻辑内存组织,而分页则简化了物理内存的管理并减少了外部分段。在MULTICS系统中,地址转换过程确实是两级的,先解析段地址,然后是页地址。

分段和分页的工作流程

  1. 段描述符的查找

    • 当一个地址被引用时,首先需要确定段号。这个段号用来查找段表,获取对应的段描述符。
    • 段描述符包含有关该段的信息,如其在物理内存中的起始位置、长度、保护信息等。
  2. 页描述符的查找

    • 一旦获得了段描述符并确认了段内偏移量是有效的,这个段内偏移量被用来定位页表。
    • 通过页表可以找到具体页的描述符,它告诉操作系统这个逻辑页在物理内存中的位置。

TLB(Translation Lookaside Buffer)的角色

TLB是一个高速缓存,用于存储最近使用的地址转换,以加快内存访问速度。在使用分段和分页的系统中,TLB也可能需要支持两级查找的机制:

  • 两级查找

    • 在MULTICS或类似系统中,TLB可能需要存储与段和页相关的信息。当CPU访问一个地址时,TLB首先检查是否有相应的段和页的转换信息。
    • 如果TLB中有匹配的段和页的转换信息,那么CPU可以直接使用这些信息来访问物理内存,无需访问段表和页表。
    • 如果TLB缺失任何信息(段信息或页信息),则必须进行传统的段表和页表查找。
  • TLB的优化

    • 实际上,为了提高效率,TLB在某些系统中可能不直接存储段信息和页信息,而是存储从虚拟地址到物理地址的最终转换结果。这样,即使背后的机制是两级的,TLB查找本身对于CPU来说仍然是单次操作。

因此,尽管MULTICS中地址转换是按两级进行的,TLB的工作方式可能并不严格按照两级查找进行,而是优化以存储最终的地址映射结果,从而减少访问时间和提高效率。这种优化是为了确保系统性能,在维持复杂内存管理架构的同时,尽可能地减少对处理速度的影响。

47.一个程序中有两个段,段0中为指令,段1中为读/写数据。段0有读/执行保护,段1有读/写保护。内存是按需分页式虚拟内存系统,它的虚拟地址为4位页号,10位偏移量。页表和保护如下所示(表中的数字均为十进制):
段0段1
读/执行读/写
虚拟页号页框号虚拟页号页框号
020在磁盘
1在磁盘114
21129
3536
4在磁盘4在磁盘
5在磁盘513
6468
73712

对于下面的每种情形,给出动态地址所对应的实际内存地址,或者指出发生了那种失效(缺页中断或保护中断)

  1. 读取页:段1,页1,偏移3
  2. 存储页:段0,页0,偏移16
  3. 读取页:段1,页4,偏移28
  4. 跳转到:段1,页3,偏移32

在处理这些内存地址访问请求时,我们需要查看虚拟地址映射到的实际内存地址,同时还需考虑保护机制是否允许这种访问方式。我们会使用以下步骤来分析每个请求:

  1. 读取页:段1,页1,偏移3

    • 虚拟页号:1
    • 页框号:14 (根据表格)
    • 计算物理地址:页框号 * 2 10 2^{10} 210(因为偏移量是10位,所以页大小为1024) + 偏移量
    • 计算结果: 14 × 1024 + 3 = 14339 14 \times 1024 + 3 = 14339 14×1024+3=14339
    • 结果:物理地址为14339
  2. 存储页:段0,页0,偏移16

    • 虚拟页号:0
    • 页框号:2 (根据表格)
    • 保护中断:段0仅有读/执行权限,尝试写入会引起保护中断。
    • 结果:保护中断
  3. 读取页:段1,页4,偏移28

    • 虚拟页号:4
    • 页框号:在磁盘
    • 缺页中断:此页当前不在内存中,访问这一页会引起缺页中断。
    • 结果:缺页中断
  4. 跳转到:段1,页3,偏移32

    • 虚拟页号:3
    • 页框号:6 (根据表格)
    • 计算物理地址:页框号 * 2 10 2^{10} 210 + 偏移量
    • 计算结果: 6 × 1024 + 32 = 6176 6 \times 1024 + 32 = 6176 6×1024+32=6176
    • 结果:物理地址为6176
48.你能想象在哪些情况下支持虚拟内存是个坏想法吗?不支持虚拟内存能得到什么好处呢?请解释

虚拟内存是一种内存管理技术,它通过使用磁盘空间作为临时的内存存储来增加可用内存量,允许操作系统和应用程序使用比物理内存更多的内存。虚拟内存具有多种优势,包括提供更大的地址空间、隔离应用程序和操作系统、提高内存利用率和方便的内存保护机制。然而,在某些情况下,使用虚拟内存可能不是一个好选择,而不支持虚拟内存也有其特定的好处。以下是几个可能的情况:

虚拟内存可能不适用的情况:

  1. 实时系统

    • 在实时计算中,系统响应时间需保持在严格的界限内。虚拟内存中的页面交换(即将数据从磁盘交换到RAM)可能导致不可预测的延迟,这对于需要快速和一致响应的实时应用程序来说是不可接受的。
  2. 资源受限的系统

    • 在嵌入式系统或老旧的硬件上,资源(如CPU速度、RAM容量和磁盘速度)可能非常有限。在这些系统中,虚拟内存的开销(如页表管理和磁盘I/O操作)可能会显著降低系统性能。
  3. 高性能计算

    • 在高性能计算应用中,如数据密集型科学计算或大规模并行处理,内存访问速度是性能的关键因素。虚拟内存的使用可能因其增加的延迟和复杂性而影响整体性能。

不使用虚拟内存的好处:

  1. 减少延迟

    • 不使用虚拟内存可以消除由于页面交换引起的延迟。在物理内存中直接处理所有数据可以确保更快的执行速度,这对于需要高速内存访问的应用程序尤其重要。
  2. 简化系统设计

    • 在不使用虚拟内存的系统中,内存管理变得更直接和简单。这可以减少系统软件的复杂性,降低开发和维护成本,特别是在资源受限的嵌入式系统中。
  3. 提高可预测性

    • 通过避免使用虚拟内存,系统的行为变得更可预测,没有了页面交换和内存压力相关的不确定性。这对于实时应用程序和需要稳定响应的系统尤为重要。
  4. 减少资源消耗

    • 虚拟内存管理需要额外的CPU资源来维护页表和处理页面错误。在一些特定应用中,如能源受限的移动设备或嵌入式系统,不使用虚拟内存可以减少能源消耗,延长设备的运行时间。
49.虚拟内存提供了进程隔离机制。如果允许两个操作系统同时运行,在内存管理上会有什么麻烦?如何解决这些困难?

当允许两个操作系统同时运行在同一硬件上(通常是通过虚拟化技术实现),在内存管理上确实会面临一系列挑战。这些挑战主要源于需要在两个完全不同的系统之间共享有限的物理资源,同时保证各自的操作不会相互干扰。以下是在这种设置中可能遇到的一些具体问题以及解决这些问题的方法。

内存管理上的挑战

  1. 资源分配

    • 问题:每个操作系统都需要足够的内存来支持其运行和应用程序。如何公平且有效地分配有限的物理内存是一个挑战。
    • 解决方案:使用动态内存分配策略,允许虚拟机监控器(hypervisor)根据每个虚拟机的实际需求调整其内存分配。
  2. 隔离性保障

    • 问题:需要确保一个操作系统的行为不会影响到另一个操作系统的稳定性和安全性。
    • 解决方案:虚拟机监控器实施严格的内存隔离,确保一个操作系统的内存访问不会越界到另一个系统分配的内存空间。
  3. 性能优化

    • 问题:虚拟化引入了额外的开销,特别是在内存访问和管理上,这可能降低系统性能。
    • 解决方案:使用高效的页表管理和内存访问技术,如扩展页表(Extended Page Tables, EPT)或快速页交换算法,以减少虚拟化带来的性能损失。
  4. 过度订阅和交换

    • 问题:如果物理内存不足,虚拟机监控器可能需要将一些虚拟机内存页交换到磁盘,这会极大影响性能。
    • 解决方案:实施智能的内存过度订阅策略,优化内存交换算法,并尽可能增加物理内存或使用更快的存储解决方案,如SSD,来缓解这一问题。

解决方法的技术细节

  • 虚拟机监控器(Hypervisor):这是一种运行在物理硬件和虚拟机操作系统之间的软件层,负责管理硬件资源并确保虚拟机间的隔离。它控制内存分配,处理CPU调度,并提供设备访问控制。

  • 内存页共享:为了提高内存利用率,可以通过技术如内存去重(memory deduplication)来减少多个虚拟机间相同内容的内存页数量。

  • 扩展页表(EPT):现代处理器支持的一种技术,用于减少虚拟地址到物理地址转换过程中的开销,从而提高内存访问效率。

通过这些技术和策略,可以有效地管理多个操作系统同时运行时的内存问题,确保系统的稳定性、安全性和性能。这些解决方案的实施需要精细的资源管理策略和先进的硬件支持。

50.构造一个直方图,计算你的计算机中可执行二进制文件大小的平均值和中间值。在Windows系统中,观察所有的.exe和.dll文件;在Unix系统中,观察/bin、/usr/bin、/local/bin目录下的所有非脚本文件的可执行文件(或者使用file工具来查找所有的可执行文件).确定这台机器的最优页面大小,只考虑代码(不包含数据).考虑内部碎片和页表大小,对页表项的大小做出合理的假设。假设所有的程序被执行的可能性相同,所以可以同等对待

为了构建直方图并计算二进制文件大小的平均值和中位数,我们需要遵循一系列步骤来搜集数据、分析和推导。我将以Unix系统为例来描述这个过程,因为我无法直接执行命令来获取你计算机上的实际数据,但我可以提供一个指导,如何在你自己的机器上进行这些步骤。

步骤1: 收集二进制文件大小

在Unix-like系统中,你可以使用如下命令来列出指定目录下所有非脚本的可执行文件大小:

find /bin /usr/bin /usr/local/bin -type f -executable -exec file {} + | grep -v 'script' | awk '{print $1}' | xargs ls -l | awk '{print $5}'

这个命令的解释:

  • find 命令用来查找所有可执行文件。
  • file 命令用来确认文件类型,排除脚本文件。
  • ls -l 用来列出文件的详细信息,包括大小。
  • awk '{print $5}' 用来提取文件大小字段。

将这些大小收集到一个文本文件中,比如 sizes.txt

步骤2: 分析数据和构建直方图

使用Python或其他数据分析工具来分析这些数据。这里给出一个使用Python的例子:

import numpy as np
import matplotlib.pyplot as plt

# 读取文件大小
with open('sizes.txt', 'r') as f:
    sizes = f.readlines()
sizes = [int(size.strip()) for size in sizes]

# 计算平均值和中位数
average_size = np.mean(sizes)
median_size = np.median(sizes)

# 构建直方图
plt.hist(sizes, bins=50, color='blue', alpha=0.7)
plt.xlabel('File Size (bytes)')
plt.ylabel('Frequency')
plt.title('Histogram of Executable File Sizes')
plt.show()

print(f"Average File Size: {average_size} bytes")
print(f"Median File Size: {median_size} bytes")

步骤3: 推断最优页面大小

对于页面大小的选择,理想的页面大小应该能够最小化内部碎片并有效地利用内存。一般来说,常见的页面大小有4KB,这通常是一个比较好的折衷选择。考虑内部碎片和页表大小的因素:

  • 内部碎片:如果页面太大,未使用的内存量可能会增加,特别是当文件大小不均时。
  • 页表大小:页面越小,页表项越多,页表的总大小也越大。假设页表项大小为4字节或8字节,较小的页可以导致较大的页表。

综合这些因素,你可以根据二进制文件的平均大小和分布情况来考虑页面大小。如果大多数文件大小远小于4KB,可能需要考虑更小的页面大小。如果文件大小接近或大于4KB,那么4KB可能是合适的选择。

51.编写一个程序,它使用老化算法模拟一个分页系统。页框的数量是一个参数。页面访问序列从文件中读取。对于一个给定的输入文件,列出每1000个内存访问中发生缺页中断的数目,它是可用页框的函数

要实现一个模拟分页系统的程序,使用老化算法来管理内存中的页面替换,你可以按照以下步骤编写C++程序。这个示例将使用老化算法,这是一种近似最近最少使用(LRU)算法的方法,使用了一个定期右移的n位寄存器来跟踪每个页框的访问历史。

老化算法的工作原理简述如下:

  • 每个页框分配一个计数器(通常是一个寄存器),初始值为0。
  • 每次页面被访问时,最高位被设置为1。
  • 在固定的时间间隔(例如,每次页面访问后),所有计数器右移一位。
  • 当需要替换页面时,选择计数器值最小的页面进行替换。

这里是如何实现这一算法的C++程序:

#include <iostream>
#include <fstream>
#include <vector>
#include <unordered_map>
#include <cassert>

class AgingSimulator {
private:
    int numFrames;
    std::vector<unsigned> registers;
    std::unordered_map<int, int> pageTable;
    int pageFaults = 0;
    int time = 0;

public:
    AgingSimulator(int frames) : numFrames(frames), registers(frames, 0) {}

    void accessPage(int pageNumber) {
        time++;
        if (pageTable.find(pageNumber) == pageTable.end()) {
            // Page fault occurs
            pageFaults++;
            if (pageTable.size() < numFrames) {
                // There is space for the new page
                int slot = pageTable.size();
                pageTable[pageNumber] = slot;
                registers[slot] = 1 << 31; // Set the highest bit
            } else {
                // Replace an existing page using the aging algorithm
                int minIndex = 0;
                unsigned minValue = registers[0];
                for (int i = 1; i < numFrames; i++) {
                    if (registers[i] < minValue) {
                        minValue = registers[i];
                        minIndex = i;
                    }
                }
                // Remove the old page and add the new page
                for (auto it = pageTable.begin(); it != pageTable.end(); ++it) {
                    if (it->second == minIndex) {
                        pageTable.erase(it);
                        break;
                    }
                }
                pageTable[pageNumber] = minIndex;
                registers[minIndex] = 1 << 31; // Set the highest bit
            }
        } else {
            // Set the highest bit because of page access
            registers[pageTable[pageNumber]] |= 1 << 31;
        }

        // Aging process: shift right all registers
        for (int i = 0; i < numFrames; i++) {
            registers[i] >>= 1;
        }
    }

    int getPageFaults() const { return pageFaults; }
};

int main() {
    int numFrames;
    std::string filename;
    std::cout << "Enter the number of frames: ";
    std::cin >> numFrames;
    std::cout << "Enter the file name containing the page access sequence: ";
    std::cin >> filename;

    std::ifstream inFile(filename);
    assert(inFile.is_open() && "File cannot be opened!");

    AgingSimulator simulator(numFrames);
    int pageNumber;
    int accessCount = 0;
    int intervalFaults = 0;

    while (inFile >> pageNumber) {
        simulator.accessPage(pageNumber);
        accessCount++;
        if (accessCount % 1000 == 0) {
            std::cout << "Page faults after " << accessCount << " accesses: " 
                      << simulator.getPageFaults() - intervalFaults << std::endl;
            intervalFaults = simulator.getPageFaults();
        }
    }

    std::cout << "Total page faults: " << simulator.getPageFaults() << std::endl;
    inFile.close();
    return 0;
}

在这里插入图片描述

使用说明

  1. 将页面访问序列存储在一个文件中,每个页面号占一行。
  2. 运行程序并输入页面框数和文件名。

此程序将报告每1000次内存访问后发生的缺页中断数,以及整个模拟过程中的总缺页数。这种模拟有助于理解不同数量的页框如何影响页面错误率。

52.编写一个程序,模拟一个使用工作集时间算法的"玩具"分页系统。我们称之为"玩具",是因为我们假设没有写访问(而这与真实系统大相径庭),进程的终止和创建也被忽略(生命周期为永恒).输入为:
  • 回收寿命阈值
  • 时钟周期间隔,用内存访问次数表述
  • 一个有页面访问序列的文件
  1. 描述你实现的基本数据结构和算法
  2. 运行该程序,并解释运行结果与你的预期有何出入
  3. 构造每1000次内存访问中缺页的数目和工作集大小
  4. 如果要处理包含写操作的内存访问流,需要如何扩展该程序

为了实现一个使用工作集窗口算法的分页系统,我们首先需要设计程序的核心组件和逻辑。以下是该程序的大致设计方案,包括数据结构、算法描述、以及如何运行和测试该程序。

基本数据结构和算法描述

  1. 数据结构

    • 页表:用来追踪每个页面的状态,包括是否在内存中、最后访问时间等。
    • 工作集:记录当前活跃的页面集合,以及它们最近的活跃时间。
    • 内存:模拟实际的物理内存,记录当前加载的页面。
  2. 算法

    • 工作集时间算法:维护一个工作集窗口,该窗口内包括最近一定数量的页面访问记录。当页面在窗口外最后一次被访问时移出工作集。
    • 页面置换:当发生缺页且内存已满时,选择工作集外的页面进行置换。如果工作集内无可置换页面,选择最久未访问的页面。

程序实现(C++)

这里提供一个简化的C++程序示例,用于模拟工作集时间算法的分页系统:

#include <iostream>
#include <fstream>
#include <unordered_map>
#include <unordered_set>
#include <deque>
#include <vector>

class PagingSystem {
private:
    std::unordered_map<int, int> pageTable; // Maps page number to last access time
    std::unordered_set<int> workingSet;
    std::deque<int> accessHistory;
    int clockInterval;
    int timeToLive;
    int currentTime = 0;
    int pageFaults = 0;
    int accesses = 0;

public:
    PagingSystem(int ttl, int interval) : timeToLive(ttl), clockInterval(interval) {}

    void accessPage(int pageNum) {
        accesses++;
        currentTime++;
        // Update access history
        if (accessHistory.size() == timeToLive) {
            int oldPage = accessHistory.front();
            accessHistory.pop_front();
            workingSet.erase(oldPage);
        }
        accessHistory.push_back(pageNum);
        workingSet.insert(pageNum);

        // Simulate page fault
        if (!pageTable.count(pageNum)) {
            pageFaults++;
            pageTable[pageNum] = currentTime;
        } else {
            pageTable[pageNum] = currentTime;
        }

        // Periodic processing
        if (accesses % clockInterval == 0) {
            std::cout << "Access " << accesses << ": Page Faults = " << pageFaults
                      << ", Working Set Size = " << workingSet.size() << std::endl;
        }
    }
};

int main() {
    int ttl, interval;
    std::string filename;

    std::cout << "Enter the lifetime threshold: ";
    std::cin >> ttl;
    std::cout << "Enter the clock interval: ";
    std::cin >> interval;
    std::cout << "Enter the filename containing the page access sequence: ";
    std::cin >> filename;

    PagingSystem simulator(ttl, interval);

    std::ifstream inFile(filename);
    int pageNum;
    while (inFile >> pageNum) {
        simulator.accessPage(pageNum);
    }

    return 0;
}

运行程序和解释结果

  1. 编译并运行程序

    • 编译上述C++程序。
    • 运行程序,输入生命周期阈值、时钟周期间隔和包含页面访问序列的文件名。
  2. 解释结果

    • 每隔指定的时钟周期,程序输出当前的缺页数和工作集大小。
    • 观察缺页的数目随时间的变化情况,以及工作集的大小变化。

扩展程序以处理写操作

  • 脏页标记:为页表添加一个标记来记录页面是否被修改(脏页)。
  • 写回策略:在页面置换时,如果页面是脏的,则需要先写回磁盘后再置换。
  • 写操作处理:在页面访问函数中添加逻辑以处理写操作,更新脏页标记。
53.编写一个程序,说明TLB未命中对有效内存访问时间的影响,内存访问时间可以通过计算每次遍历大数组时的读取时间来衡量
  1. 解释编程思想并描述所期望输出如何展示一些实际的虚拟内存体系结构
  2. 运行该程序,并解释运行结果与你的预期有何出入
  3. 在一台更古老的且有着不同体系结构的计算机上重复b,并解释输出上的主要区别

要编写一个程序来衡量TLB未命中对有效内存访问时间的影响,我们可以通过设计一个实验来遍历大数组,这种方式可以通过故意设计访问模式来增加TLB未命中的几率。

编程思想

  1. 创建一个大数组

    • 创建足够大的数组以确保它的大小远超过TLB可以缓存的地址范围。这样可以保证在数组的连续访问中会引发TLB未命中。
  2. 设计访问模式

    • 顺序访问:连续地访问数组中的每个元素。这种访问模式通常会有较高的TLB命中率,因为连续的虚拟页通常映射到连续的物理页。
    • 随机访问:随机访问数组中的元素,以模拟高TLB未命中的情况。通过随机访问,可以增加虚拟地址到物理地址转换的开销,因为TLB缓存未命中将更频繁。
  3. 测量访问时间

    • 使用高精度计时器(如 std::chrono)来测量遍历整个数组的时间。分别测量顺序访问和随机访问的时间。

C++ 程序实现

#include <iostream>
#include <chrono>
#include <vector>
#include <random>
#include <algorithm>

int main() {
    const size_t arraySize = 1e8;  // 100 million elements
    std::vector<int> data(arraySize);

    // Populate array with some data
    for (size_t i = 0; i < arraySize; ++i) {
        data[i] = i;
    }

    // Randomize the access pattern
    std::vector<size_t> indices(arraySize);
    for (size_t i = 0; i < arraySize; ++i) {
        indices[i] = i;
    }
    std::random_device rd;
    std::mt19937 g(rd());
    std::shuffle(indices.begin(), indices.end(), g);

    // Measure sequential access time
    auto start = std::chrono::high_resolution_clock::now();
    volatile int sink;  // Prevent optimization
    for (size_t i = 0; i < arraySize; ++i) {
        sink = data[i];
    }
    auto end = std::chrono::high_resolution_clock::now();
    std::chrono::duration<double> diff = end - start;
    std::cout << "Sequential access time: " << diff.count() << " s\n";

    // Measure random access time
    start = std::chrono::high_resolution_clock::now();
    for (size_t i = 0; i < arraySize; ++i) {
        sink = data[indices[i]];
    }
    end = std::chrono::high_resolution_clock::now();
    diff = end - start;
    std::cout << "Random access time: " << diff.count() << " s\n";

    return 0;
}

在这里插入图片描述

期望输出与实际输出

该程序将输出两种访问模式(顺序和随机)的总时间。期望的输出应该显示随机访问的时间明显长于顺序访问的时间,因为随机访问增加了TLB未命中的机率,导致更频繁的页面查找。

在不同体系结构上运行程序

在不同体系结构的计算机上运行此程序可能会得到不同的结果,因为:

  • TLB大小和性能:不同的处理器有不同大小和性能的TLB,这可能影响TLB未命中的频率。
  • 物理内存和缓存结构:更大或更快的缓存可能减轻TLB未命中的性能损失。
54.编写一个程序,该程序能说明在有两个进程的简单情况下,使用局部页置换策略和全局页置换策略的差异。你将会用到能生成一个基于统计模型的页面访问串的例程。这个模型有N个状态,状态编号从0到N-1,代表每个可能的页面访问,每个状态 i i i相关的 p i p_i pi代表下一次访问仍指向同一页面的概率。否则,下次将以等概率访问其他任何一个页面
  1. 证明当N比较小时,页面访问串生成例程能运行正常
  2. 对有进程和页框数量固定的情况计算缺页率。解释这种行为为什么是正确的
  3. 对有独立页面访问序列的两个进程,以及(2)中两倍的页框数,重复(2)实验
  4. 用全局策略替换局部策略重复(3)。类似地,使用全局策略方法比较每个进程缺页率

为了展示局部页置换策略和全局页置换策略的差异,我们将编写一个简单的C++程序,该程序包含模拟两个进程的内存访问模式。我们将首先创建一个统计模型来生成页面访问序列,然后模拟局部和全局页面置换策略,并比较它们的缺页率。

步骤1:页面访问串生成例程

#include <iostream>
#include <vector>
#include <random>

std::vector<int> generateAccessSequence(int n, int accesses, double p) {
    std::vector<int> sequence;
    std::random_device rd;
    std::mt19937 gen(rd());
    std::uniform_int_distribution<> dis(0, n-1);
    std::uniform_real_distribution<> prob(0.0, 1.0);

    int currentPage = dis(gen);
    sequence.push_back(currentPage);

    for (int i = 1; i < accesses; i++) {
        if (prob(gen) < p) {
            sequence.push_back(currentPage); // stay on the same page
        } else {
            currentPage = dis(gen); // move to a different page
            sequence.push_back(currentPage);
        }
    }

    return sequence;
}

步骤2 & 3:模拟局部和全局页置换策略

我们定义一个简单的分页系统,其中包括局部和全局置换策略。局部策略为每个进程分配固定数量的页框,而全局策略允许进程共享所有页框。

#include <unordered_set>

double simulateLocal(int numFrames, const std::vector<int>& accesses) {
    std::unordered_set<int> frames;
    int pageFaults = 0;

    for (int page : accesses) {
        if (frames.size() < numFrames || frames.count(page)) {
            if (!frames.count(page)) {
                pageFaults++;
                if (frames.size() == numFrames) {
                    frames.erase(frames.begin()); // simple FIFO for replacement
                }
                frames.insert(page);
            }
        }
    }
    return static_cast<double>(pageFaults) / accesses.size();
}

double simulateGlobal(int numFrames, const std::vector<int>& accesses1, const std::vector<int>& accesses2) {
    std::unordered_set<int> frames;
    int pageFaults = 0;
    std::vector<int> combinedAccesses = accesses1;
    combinedAccesses.insert(combinedAccesses.end(), accesses2.begin(), accesses2.end());
    std::random_shuffle(combinedAccesses.begin(), combinedAccesses.end()); // Mix the accesses

    for (int page : combinedAccesses) {
        if (frames.size() < numFrames || frames.count(page)) {
            if (!frames.count(page)) {
                pageFaults++;
                if (frames.size() == numFrames) {
                    frames.erase(frames.begin()); // simple FIFO for replacement
                }
                frames.insert(page);
            }
        }
    }
    return static_cast<double>(pageFaults) / combinedAccesses.size();
}

步骤4:比较局部与全局策略

现在,我们可以设置模拟参数,比如进程数、页框数和访问数,并比较两种策略。

int main() {
    int n = 10; // Number of pages
    int accesses = 1000; // Number of accesses
    double p = 0.7; // Probability of accessing the same page

    auto accessSequence1 = generateAccessSequence(n, accesses, p);
    auto accessSequence2 = generateAccessSequence(n, accesses, p);

    int numFramesPerProcess = 5;
    double localRate1 = simulateLocal(numFramesPerProcess, accessSequence1);
    double localRate2 = simulateLocal(numFramesPerProcess, accessSequence2);

    int totalFrames = numFramesPerProcess * 2;
    double globalRate = simulateGlobal(totalFrames, accessSequence1, accessSequence2);

    std::cout << "Local Page Fault Rate (Process 1): " << localRate1 << std::endl;
    std::cout << "Local Page Fault Rate (Process 2): " << localRate2 << std::endl;
    std::cout << "Global Page Fault Rate: " << globalRate << std::endl;

    return 0;
}

在这里插入图片描述

这个程序首先生成两个独立的页面访问序列,然后分别用局部和全局策略进行模拟,最后比较各自的缺页率。理论上,全局页置换策略应该有更低的缺页率,因为它允许进程之间更灵活地共享页框。不过,这也可能导致一个进程的页面被另一个进程频繁替换,从而影响性能。在不同的工作负载和配置下,这些效果可能会有所不同。

55.编写一个程序,用于比较在TLB表项加上一个标签域后,两个程序控制切换时的效果。该标签域用于指明该TLB表项对应的进程ID,没有标签的TLB可以用所有的TLB表项标签域相同来进行模拟。输入是:
  • 可用的TLB表项数目
  • 时钟周期间隔,用内存访问次数表述
  • 一个包含(进程,内存访问)序列的文件
  • 更新一个TLB表项的开销
  1. 描述你的实现中的基本数据结构和算法
  2. 运行该程序,并解释运行结果与你的预期有何出入
  3. 标绘1000次访问中TLB更新的次数

为了编写一个用于比较带标签域(包含进程ID)的TLB和没有标签域的TLB在进程切换时效果的程序,我们需要模拟TLB的行为。这个模拟将考虑TLB的填充和更新过程,尤其是在进程切换时TLB如何响应。

基本数据结构和算法

  1. 数据结构

    • TLBEntry:一个结构体或类,包括页面号、对应的帧号、进程ID(对于带标签的TLB),以及其他可能的元数据,如最后访问时间等。
    • TLB:包含TLB条目的列表,支持插入、查找和删除操作。对于不带标签的TLB,可以假设所有条目的进程ID相同。
  2. 算法

    • 查找:在访问内存时,首先在TLB中查找对应的页面号和进程ID。如果找到,访问成功;如果未找到,触发TLB未命中。
    • 插入和更新:如果TLB未命中,需要将页面号和帧号加载到TLB中。如果TLB已满,需要根据一定的策略(如LRU)替换一个条目。
    • 进程切换:对于带标签的TLB,不需要特别操作;对于不带标签的TLB,在每次进程切换时,理论上需要清空TLB,这是模拟的主要开销。

示例代码(C++)

下面是一个简化版的C++程序,用于模拟上述描述的TLB:

#include <iostream>
#include <vector>
#include <unordered_map>
#include <fstream>
#include <string>
#include <sstream>

struct TLBEntry {
    int page;
    int frame;
    int processId; // Only used if TLB has labels
};

class TLB {
private:
    std::vector<TLBEntry> entries;
    int capacity;

public:
    TLB(int cap) : capacity(cap) {}

    bool find(int processId, int page) {
        for (const auto& entry : entries) {
            if (entry.page == page && entry.processId == processId) {
                return true;
            }
        }
        return false;
    }

    void update(int processId, int page, int frame) {
        if (entries.size() >= capacity) {
            entries.erase(entries.begin()); // Simple FIFO replacement
        }
        entries.push_back({page, frame, processId});
    }
};

int main() {
    int tlbSize;
    int clockInterval;
    std::string filename;
    int updateCost;

    std::cout << "Enter TLB size: ";
    std::cin >> tlbSize;
    std::cout << "Enter clock cycle interval: ";
    std::cin >> clockInterval;
    std::cout << "Enter filename: ";
    std::cin >> filename;
    std::cout << "Enter TLB update cost (cycles): ";
    std::cin >> updateCost;

    TLB tlb(tlbSize);
    std::ifstream file(filename);
    std::string line;
    int processId, page, accesses = 0, updates = 0;

    while (getline(file, line)) {
        std::istringstream iss(line);
        iss >> processId >> page;
        if (!tlb.find(processId, page)) {
            tlb.update(processId, page, page); // Simplified frame mapping
            updates++;
        }
        accesses++;
        if (accesses % 1000 == 0) {
            std::cout << "Accesses: " << accesses << ", Updates: " << updates << std::endl;
            updates = 0;
        }
    }

    return 0;
}

运行程序和预期结果

  • 程序将从文件读取进程和页面访问序列,并根据是否找到相应的TLB条目来更新TLB。
  • 预期结果是在进程切换频繁的情况下,不带标签的TLB会因为需要频繁清空而引发更多的TLB更新。

标绘TLB更新次数

  • 程序已包含在每1000次访问后输出TLB更新次数的功能。

  • 对于进一步的分析,可以将输出数据记录下来并使用绘图软件(如Python的matplotlib)进行可视化。

  • 25
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值