操作系统中存储系统简介 虚拟内存、内存管理、分页、保护

存储器的层次结构

image.png|500|500|500

对于存储器,速度越快,能耗越高,材料成本也越高
存储系统的层次结构从上到下依次为:

  1. 寄存器
    • 访问速度非常快,通常在半个CPU时钟周期内完成读写。
    • 与CPU主频相关,例如2GHz主频的CPU,其时钟周期为0.5纳秒。
  2. CPU Cache
    • 使用SRAM(Static Random-Access Memory,静态随机存储器)芯片,只要有电,数据就可以保存。
    • 分为三层:
      • L1 Cache:分为数据缓存和指令缓存,通常大小为32K。
      • L2 Cache:通常大小为1024K。
      • L3 Cache:通常大小为14080K。
  3. 内存
    • 使用DRAM(动态随机存取存储器)芯片。
    • 相比SRAM,DRAM密度更高,功耗更低,容量更大,造价便宜。
    • DRAM 存储一个 bit 数据,只需要一个晶体管和一个电容就能存储,但是因为数据会被存储在电容里,电容会不断 漏电,所以需要「定时刷新」电容
    • 访问速度较慢,大约在200~300个时钟周期之间。
  4. SSD/HDD硬盘
    • SSD(固态硬盘):数据在断电后仍然保存,读写速度比内存慢10~1000倍。
    • HDD(机械硬盘):通过物理读写方式访问数据,速度比内存慢约10万倍。
存储器之间的实际价格和性能差距

不同层级的存储器在成本和性能上存在显著差距:

  • L1 Cache:单位成本7美元/MB,随机访问延时1ns。
  • L2 Cache:单位成本7美元/MB,随机访问延时4ns。
  • 内存(DRAM):单位成本0.015美元/MB,随机访问延时100ns。
  • SSD:单位成本0.000415美元/MB,随机访问延时150μs。
  • HDD:单位成本0.00004美元/MB,随机访问延时10ms。
存储器的层次关系

存储器之间的交互是层级化的,CPU只与相邻的存储器设备进行交互。例如,CPU与L1 Cache交互,L1 Cache与L2 Cache交互,依此类推。每个存储器层级的速度越快,所需的材料成本也越高,因此高速度的存储器通常容量较小,而低速度的存储器则可以有更大的容量。

虚拟内存

简述

虚拟内存是一种内存管理技术,它使得应用程序认为自己拥有连续的可用内存空间,实际上这些空间可能是分散的。虚拟内存的实现依赖于硬件异常、地址翻译、主存、磁盘及内核软件的共同作用。

操作系统会提供一种机制,在物理内存和虚拟内存之间建立一个地址映射表,进程持有的虚拟地址会通过 CPU 芯 片中的内存管理单元(MMU)的映射关系,来转换变成物理地址,然后再通过物理地址访问内存

主要概念

  1. 地址空间:物理内存的抽象,进程可用于寻址内存的地址集合。
  2. 分页:将地址空间分割成多个块,每一块称作一页(Page),这些页被映射到物理内存(页框)。
  3. 页表:用于将虚拟页面(虚拟地址)映射为页框(物理地址),提供虚拟地址与物理地址的映射关系。
  4. 用户态与内核态
    • 用户态:进程不允许执行特权指令,必须通过系统调用接口访问内核。
    • 内核态:进程可以执行任何指令,访问系统中的任何内存位置。

虚拟内存的优势

  1. 结合磁盘和物理内存的优势:为进程提供速度快且容量大的存储。
  2. 独立的内存空间:为进程提供独立的内存空间,简化程序的链接、装载及内存分配过程。
  3. 访问控制:控制进程对物理内存的访问,提高系统的安全性。

内存管理

内存碎片
  • 外部碎片:整体内存容量足够,但无法为较大的内存请求分配连续的内存块,因为已分配的内存块分散在内存中。

  • 内部碎片:分配的内存块大于进程实际需要的内存量,导致内存浪费在内部碎片中。

  • 内存分段:将物理内存划分成不同的逻辑段,每个段用于存储特定类型的数据。每个段具有不同的大小和属性。分段机制下的虚拟地址由两部分组成,段选择因子和段内偏移量,而虚拟地址是通过段表与物理地址进行映射的。
    image.png|500|500|500

  • 内存分页:将地址空间划分成固定大小的页,动态增长的特点可能导致覆盖问题的出现。虚拟内存采用的是分⻚技术

分⻚主要用于实现虚拟内存,从而获得更大的地址空间;分段主要是为了使程序和数据可以被划分为逻辑上独立的 地址空间并且有助于共享和保护。

内存分页

页面置换算法

  1. 最佳页面置换算法(OPT):置换在未来最长时间不访问的页面,但在实际系统中无法实现。
  2. 先进先出置换算法(FIFO):将页面以队列形式保存,先进入队列的页面先被置换。
  3. 最近最久未使用的置换算法(LRU):根据页面未被访问的时长进行置换。
  4. 时钟页面置换算法:将所有页面保存在一个环形链表中,顺时针遍历页面进行置换。
  5. 最不常用算法:记录每个页面的访问次数,置换访问次数最少的页面。

TLB加速分页

  • 概念
    • TLB(转换检测缓冲区)是一种硬件设备,将虚拟地址直接映射到物理地址,避免访问页表。
  • 工作过程
    • 输入虚拟地址到MMU(内存管理单元)进行转换。
      1. 虚拟页号在TLB中
        • 如果找到有效的匹配且访问操作不违反保护位,直接从TLB中取出页框号,无需访问页表。
      2. 虚拟页号不在TLB中
        • 若未找到匹配,进行常规页表查询。
        • 淘汰TLB中的一个表项,并用新的页表项替换它。
软件TLB管理
针对大内存的页管理技术
  • (1) 多级页表
  • (2) 倒排页表
三个重要的缓存能力
  • 高速缓存
    • 根据存储器层次结构,将小而快的存储设备视为大而慢的存储设备的缓存。
  • 虚拟内存中的页类型
    1. 未分配
      • 未被进程申请使用的虚拟内存,空闲状态,未占用磁盘空间。
    2. 未缓存
      • 仅加载到磁盘中的页。
    3. 已缓存
      • 已加载到内存中的页(页框)。

内存保护

  • 目的: 保护用户进程的内存安全,防止恶意操作,确保系统稳定性。

  • 限制措施:

    • 只读代码段: 用户进程不能修改自身的只读代码段。
    • 内核代码和数据: 禁止用户进程读取或修改内核中的代码和数据结构。
    • 进程间内存访问:
      • 不允许读取或修改其他进程的私有内存。
      • 不允许修改其他进程共享的虚拟页面。
  • 潜在风险: 如果不限制内存访问,攻击者可能会访问和修改其他进程的内存,导致系统崩溃。

  • 虚拟寻址实现:

    • 通过内存管理单元 (MMU),每次内存访问都会查阅页表中的页表条目 (PTE)。
    • 在PTE中添加标志位来实现对虚拟页的访问控制权限。

总结

虚拟内存的思想,整体来看就是:通过结合磁盘和内存各自的优势,利用中间层对资源进行更合理地调度,充分提 高资源的利用率。并提供和谐以及统一的抽象。

  • 7
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值