计算机组成原理-存储器的层次结构

第三章 存储器的层次结构

3.1 存储器分类
  1. 按存储介质分类
    (1)半导体存储器:
            TTL,MOS,SSD。
            易失
    (2)磁表面存储器:
            磁头,载磁体
            非易失
    (3)磁芯存储器:
            硬磁材料,环状元件
            非易失
    (4)光盘存储器:
            激光,慈光
            非易失

  2. 按存取方式
    (1)存取时间与物理地址无关 (随机存取
            类比于数据结构中的线性表数组(取数组某个元素的时间和物理地址无关,只和index有关)
            (a)随机存储器:程序执行过程中可读可写
            (b)只读存储器:程序执行过程中只读
    (2)存取时间与物理地址有关(串行访问
            类比于数据结构中的链表
            (a)顺序存取存储器:磁带
            (b)直接存取存储器:磁盘(根据物理地址,直接移动磁头)

  3. 按在计算机中的作用分类
    (1)主存
            (a)RAM:操作系统被加载到RAM
                    SRAM:(Static Random Access Memory)静态随机存储器。常用制作二级缓存。
                                    不必刷新电路就能保存数据。但体积大,集成度低
                    DRAM:(Dynamic Random Access Memory)动态随机存取存储器。常用语制作系统内存
                                    DRAM用电容存储数据,需要定时充电,刷新电路,否则出处的数据丢失。集成度高
            (b)ROM:存储机器自检和引导程序,BIOS等程序
                    MROM:(Mask Read-Only Memory)掩模式只读存储器。MROM的内容在出厂前一次写入,之后不能更改
                    PROM:(Programmable Read-Only Memory)-可编程只读存储器。只能写入一次数据的只读存储器,写入错误只能更换存储芯片
                    EPROM:(Erasable Programmable Read Only Memory)可擦除可编程只读寄存器
                    EEPROM: (Electrically Erasable Programmable Read-Only Memory),电可擦可编程只读存储器。SSD
    (2)辅存
            磁盘,磁带,光盘

3.2 存储器的存储结构
  1. 存储结构综述
    (1)cpu只能和主存,cache进行数据交互,而不能直接获得辅存的数据
    (2)辅存的数据只能调入主存,不能直接进入缓存中。
    (3)辅存到主存的映射是由OS操作系统管理的。但是主存和辅存之间的一个映射关系被放到TLB中,TLB在cache中。
    (4)虚拟存储中的页表,段表,段页表被放到了主存中。cpu通过页表访问辅存时,发现缺页中断,就会先暂停程序的执行,先把数据调到内存

  2. 主存
    (1)主存的基本结构
    image.png-9.5kB
    (2)主存和CPU的联系
         image.png-5.4kB
  3. 主存中存储单元地址的分配
    (1)寻址的个数有2个因素:
           (a)地址线的个数:这是内存中总的可寻址字节数
           (b)一个地址所占用的字节数:表明了一个内存单元,占用多少个字节
    (2)=内存可寻址的总字节数多少字节形成一个内存单元=可寻址数bit

    (3)片选线的作用
           eg:用16K*1位的存储芯片组成64K*8位的存储器
           (a)因为半导体芯片是用存储矩阵设计的,存储矩阵的一行可以看成一层楼,这层楼有多个小房间。
                    因此,先把8个16*1K的存储器放在一行,构成一层楼。再安排4层这样的楼层,构成64K*8的大楼
           (b)因为,一个地址线的地址过来后,先通过片选线(地址为的最高几位),选择楼层,
                    然后用剩下的地址线低位地址,选择是楼层的那个房间
           (c)eg:当上例子中,地址线过来的数据是65535,转换成二进制是1111 1111。
                    上面楼层有4层,所以地址线的前两位进行片选,也就是11,因此选择最高层。

  4. 半导体存储芯片的译码方式:
    (1)线选法:每个小存储单元占用一行,构成多行的线性结构
           每个小存储单元占用一行,构成多行的线性结构
           eg:16*1 bit的存储矩阵,占16行,因为要选择16行,所以要有4位片选线,链接所有的16个存储单元。
           这种设计导致电路设计异常复杂。
    (2)重合法 : 组合多个存储单元为一行
           通过组合多个存储单元为一行,来减少行数,达到减少片选线位数的目的,简化电路设计。但此时的存储矩阵,每行有多列存储单元,因此,用X地址译码器(确定行),用Y地址译码器(确定列),来选到具体的某个存储单元。
           eg:256 * 1bit重合片选法:把8个bit存储单元作为一行,设计32行即可。
                  因为有32行,因此X地址译码器有5位,因为有8列,因此Y地址译码器有3位
           image.png-12.2kB

3.3 半导体随机存储器
  1. SRAM
    (1)SRAM:静态随机存储器,不用刷新电路,使用双稳态管存储数据,不掉电情况下数据存在。
    (2)SRAM基本电路

  2. DRAM
    (1)DRAM:动态随机存储器,定时刷新电路,使用电容存储数据,不掉电情况下也需要定时对电容充电。
    (2)DRAM的存储矩阵是二维的,有行有列。所以要对行和列进行片选。行列片选的片选片进行复用,即同一个针脚,先选择行,后选择列。
    (3)动态RAM刷新 (刷新与行地址有关:默认数据能保持2ms)

    (a)集中刷新(存取周期0.5μsμs顺着存储矩阵的行编号,向下个编号刷新。

3.4 主存与CPU的连接
  1. 存储容量的扩展
    (1)位扩展
         用2片1K*4位存储芯片组成1K*8位存储器
         位扩展没有增加房间号,只是房间里面多住人了。即地址线不变,增加数据线,其他没变化
    (2)字扩展(增加存储字的数量)
    用1K*8位存储芯片组成2K*8位的存储器:原来的1K字即10根地址线,变成现在的2K即11根地址线,多出来的1根地址线用来进行片选。
    image.png-118.6kB
    (3)字位扩展
    用8片1K*4位的存储芯片组成4K*8位的存储器。即地址线先扩展4位成D0D7D0到D7即可区分ROM和RAM.因此这3位地址线成为片选线。

3.5 双口RAM和多模块存储器 -- 提高访存速度的手段
  1. 单体多字系统
    (1)把原来的单字长寄存器改变为多字长的寄存器,使得内存一次可以读出多个字。从而增加访存速度
    (2)这种设计实际上不存在,因为多字长在跳转指令时会产生顺序读取的数据无效,降低效率

  2. 双口RAM
    (1)双口RAM是含有两套相互独立的读写控制电路而得名。同时进行2次独立的读写操作,所以会增加存储器
    (2)当两套读写电路同时操作同一块内存地址时,会产生写冲突。因此,增加一个busy标志(低电平)

  3. 多体并行 - 高位交叉,顺序编址
    (1)多体并行是编址方式的一种转变。存储矩阵有多个行,每个行成为一个体。
    (2)高位交叉编址的意思是:用地址的高位表示是哪个体。所以4体高位交叉编址就变成了高位分别为00,01,10,11$,低位作为体内地址。因此形成顺序编址。
    image.png-7.6kB

  4. 多体并行 - 低位交叉编址,各体轮流编址
    (1)低位为体号,高位为体内地址。正好使得连续地址分布在不同的体
    image.png-7.8kB
    (2)低位交叉编制,使得读取连续地址的数据时,采用流水线方式:
         流水线为2步,分为通知体传输和体传输时间。
         通知体的时间为cpu发出信号到体的时间,即总线传输时间。体传输时间为体读取数据的时间。
         为了使流水线可以对齐,要求1个存取周期内,正好通知到所有体,所以存取周期为体数的整数倍。
         eg:设4体交叉存储器,存取周期为T,总线传输周期为ττ
    image.png-6.2kB

  5. 高性能存储芯片
    (1)SDRAM(同步DRAM):系统时钟控制下进行读出和写入,CPU无需等待
    (2)RDRAM:由Rambus开发,解决存储器带宽问题
    (3)带cache的DRAM:在DRAM的芯片中集成了一个由SRAM组成的cache

3.6 高速缓冲存储器Cache
  1. cache工作原理
    (1)主存单位称为块,cache称为行,实质是一个东西
    (2)CPU读主存时,把地址同时送给cache和主存,cache通过地址查看此字是否在cache中,若在则立即传送给cpu。
    若不在,则用主存读周期把此字从主存中读出送到cpu,与此同时,把含有此字的整个数据块从主存读出送到cache的行中

  2. Cache层次结构
    (1)cache是分层次的:L1 cache,L2 cache,L3 cache。
    (2)寄存器取值时,先从L1取,去不到则向下层的L2 cache取,L2再取不到,去内存取。
    (3)每个核心享有独自的L1 cache和L2 cache,所有核心共享L3 cache。 L1,L2cache是片内cache
    (4)L1 cache分为L1P和L1D,分开存储指令和数据。使指令和数据可以同时读取
    image_1atae331m3tm1opg19n51ng91hrm9.png-54.5kB

  3. cache与内存的映射关系(读方式)
    (1)全关联:full associative cache
         将内存也看成line的方式存储,全关联是指,内存的任意一个line可以映射到cache中的任意一个line。
         全相连映射的主存地址分为2部分:主存块号|字块内地址;cache标记位为主存地址除了字块内地址的全部高位。
         这就需要一个表,记录主存块号到cache行号的映射
         这种方式,在查找内存是否在cache中时,要查找所有的tag。 而且查表的比较器很难实现
    (2)直接映射:Direct Associated Cache
         将内存按照cache大小划分为n个Page,内存中Page的line0对应cache的line0。因此直接映射下,cache标志位标志的是内存的page号。
         另一种理解方式:主存中的几个特定行,映射到cache的一个特定行。多对一的关系。这种关系满足公式 i = j mod c
         其中,i:cache行的行号。j:主存块的块号。c:cache的行数。标志位=j/c向下取整
         直接映射相当于多体高位交叉顺序编址。体相当于整个cache,主存包含多个体。采用顺序编址,使得主存地质分成三部分: 体号(第几个cache)|cache块号|块内地质。所以cache把主存中的最高几位(cache体号)作为标记位
         当恰好访问的几个主存地质,映射到了相同的cache行,就会产生抖动
    (3)组相联:Set Associated Cache
         i. 组相联映射把cache划分为过个way,每个way的结构一样。内存按照way的大小划分Page,page间采用直接映射方式,page内采用全相联映射方式 。
    即:page号到组号的映射关系是多对一且固定的。
    u为cache的way个数,v为way中的行数 。 v路组相联:把几行作为一个way
    这种方式,把主存地址分为3部分:主存自块标记|组内地址(不用有way号,因为是映射出来的)|字内地址。分别对应cache的标记位,way内的行号
         ii. c64+DSP的配置中,L1P使用1个way,L1D使用2个way,L2不区分程序和数据,使用4个cache way

    eg:假设主存的容量为512K*16位,cache容量为4096*16位,块长为4个16位字,访存地址为字地址。
    (1)直接映射下,设计主存地址格式:
    解:直接映射是主存的每块映射到cache的固定块。所以,主存地址应包含cache块号的标记。
    因为按字编址,每个字为16位,所以主存地址容量为219219个分组,所以组号占9位。剩下tag位占19-9-2=8位

二. cache的写方式

  1. 写通(Write through)
    cpu在更新cache的内容时,会立刻更新对应的内存的值
    写直通要同时写主存和cache,造成速度降低

  2. 写回(Write Back),line增加dirty

i. 在cache line的内容需要被置换时,先将修改过的值写会内存,再置换成新的line值

ii. 如何知道line被修改过呢,需要在line中增加一个dirty标志位,dirty为1,表示内存的内容被修改过,置换时需要写回内存
iii.LiP缓存程序,程序不会被修改,所以L1P没有dirty标志,而L1D缓存数据会被更改,所以有dirty标志位
image_1atae6ccsve8dqedqt1epb17ifm.png-6.3kB

三. cache一致性

  1. 多核cpu下的cache一致性问题
    多核处理器中运行着不同的线程,当1个核心中的1个线程使修改一个内存地址的数据时,由于cache的写回策略,导致该核心中cache line的数据还没写回到对应内存。当另一个核心的进程也需要操作这个内存地址的数据时,从内存地址中读取的数据就是旧值。

  2. cache一致性协议的2个硬件操作
    (1)Write Invalidation:置无效
    当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则把其他核心的cache line的valid标志位置为无效
    (2)Write Update:数据更新
    当一个核心的cache line更新了数据时,如果发现其他核心的cache line也存在对应内存地址数据的拷贝,则更新其他核心的cache数据
    Write Update设计复杂,会产生大量的数据更新操作,通常使用Write Invalidation

  3. cache一致性协议(Write Invalidation的实现:MESI)
    (1)MESI协议包含4种状态
         M:modify,该cache line数据有效,被更新过,和内存中不一致,数据只存在本cache中
         E:Exlusive,该cache line数据有效,且和内存中一致,数据只存在本cache中
         S:shared,该cache line数据有效,数据和内存中一致,数据存在多个核心的cache line中
         I:invalid,此cache line数据无效
    (2)cache snoop(窥探)
         MESI协议中,每个core的cache控制器不仅可以知道自己cache的读写情况,同时也窥探其它core的cache的读写操作。每个cache line的数据状态在本core和其它core的读写状态之间进行变换。
    (3)MESI的读写行为
         i. Local Read:本core读本cache
         ii. Local Write:本core写本cache
         iii. Remote Read:其它core读其它cache
         V. Remote Write:其它core写其它cache
    (4)目录式的一致性协议
         i. MESI协议需要snoop窥探,电路实现简单,但是cache line的沟通成本很高
         ii. 有一种集中管理的目录式协议,将cache共享信息集中在一起,只有共享的cache line才会交互数据,减少沟通成本

3.7 虚拟存储器

一. 页式虚拟存储

  1. 概念
    (1)程序员在比实际主存大得多的逻辑地址空间中编写程序
    (2)程序执行时,把当前需要的程序段和数据块掉入主存,其他暂不使用的放在磁盘上
    (3)执行指令时,通过硬件将逻辑地址转化为物理地址。虚拟地址高位为虚页号,低位为页内偏移地址
    (4)当程序发生数据访问或程序访问失效(缺页时),由操作系统把信息从磁盘调入主存中

  2. 分页
    (1)基本思想:
    内存被分成固定长度且长度较小的存储块(页框,实页,物理页)
    每个进程也被划分为固定长度的程序块(页,虚页,逻辑页)
    通过页表,实现逻辑地址想物理地址的转化
    (2)逻辑地址
    程序中指令所使用的地址(进程所在地址空间)
    (3)物理地址
    存放指令或数据的实际内存地址

  3. “主存-磁盘”层次
    (1)与“cache-主存”层次相比,页大小远比cache的行大小要大(windows中的页位4k)
    (2)采用全相联映射方式:磁盘中的任意一个页能用射到内存中的任意一个页
    因为缺页导致中断时,操作系统从磁盘拿数据通常要耗费几百万个时钟周期。增大页大小,可以减少缺页中断
    (3)为什么让软件处理“缺页”
    因为访问磁盘需要好粉几百万个时钟周期,硬件即使能立刻把地址打给磁盘,磁盘也不能立即响应
    (4)为什么地址转换用硬件实现
    硬件实现地址转换可以加快指令的执行速度
    (5)为什么页写会策略采用write back
    避免频繁的慢速磁盘访问

  4. 页表结构
    页表的首地址放在基址寄存器。采用基址寻址方式
    每个页表项前面有一个虚页号:从0开始递增的序号。页表项又分为几个结构:
    (1)装入位:该页是否在内存中
    (2)修改位:该也在内存中是否被修改
    (3)替换控制位:用于clock算法
    (4)其他
    (5)实页号(8进制)

  5. TLB
    (1)一次磁盘引用需要访问几次主存?2次,一次查页表,一次查物理地址。于是,把经常查的页表放到cache中。这种在cache页表项组成的页表称为TLB(Translation Lookside Buffer)
    (2)TLB的页表结构:tag + 主存中的页表项
    当采用全相连映射时,tag为页表项前面的虚页号。需要把tag和虚页号一一比较
    当采用组相联映射时,tag被分为tag+index,虚页号的高位为tag,虚页号的低位为index,做组内索引(属于组内第几行)

二. 段式虚拟存储

  1. 段式存储是根据程序逻辑,给程序分段。使得每段大小不同。这种虚拟地址划分方法适合程序设计
  2. 段式存储的虚拟地址由段号和段内偏移地址组成。段式虚拟存储器到物理地址的映射通过段表实现
  3. 段式虚拟存储会造成空页

三. 段页式虚拟存储

  1. 段页式虚拟存储,先把程序按照逻辑分成段,再把每段分成固定大小的页。
  2. 程序对主存的调入调出是按照页面进行的;但他有可以根据段实现共享和保护
  3. 缺点是段页式虚拟地址转换成物理地址需要查询2个表:段表和页表。段表找到相应页表的位置,页表找到想也页的位置
  4. 段页式细腻地址的结构可以为以下形式:
    程序地址: 用户号(进程pid) | 段号 | 页号 | 页内偏移地址

eg:
(1)某计算机的cache块工16块,采用二路组相联映射方式,每个主存块大小为32字节,按照字节编制。则主存129号单元的主存块硬装如刀cache的组号是:(C)A、0       B、2       C、4       D、6
解:二路组相联,所以每组2块,共有16/2=8组,所以组号占3位。
      每块32字节,所以块内地址占5位。
      129转化为二进制:1000 0001:前3位为组号,100:=4

(2)假设用若干个2K*4位的芯片组成一个8K*8位的存储器,则地址0B1FH所在芯片的最小地址为
解:用2片组成一行,共4行,所以片选地址占2位。片内地址有2k=211211

« 上一篇: 组成原理(二)数据表示和计算
» 下一篇: 组成原理(四)指令系统
	</div>
	<div class="postDesc">posted @ <span id="post-date">2016-10-08 11:45</span> <a href="https://www.cnblogs.com/moonlord/">moon_lord</a> 阅读(<span id="post_view_count">4554</span>) 评论(<span id="post_comment_count">0</span>)  <a href="https://i.cnblogs.com/EditPosts.aspx?postid=5938003" rel="nofollow">编辑</a> <a href="#" "AddToWz(5938003);return false;">收藏</a></div>
</div>
<script src="//common.cnblogs.com/highlight/9.12.0/highlight.min.js"></script><script>markdown_highlight();</script><script type="text/javascript">var allowComments=true,cb_blogId=309613,cb_entryId=5938003,cb_blogApp=currentBlogApp,cb_blogUserGuid='f8e407fa-948c-e611-845c-ac853d9f53ac',cb_entryCreatedDate='2016/10/8 11:45:00';loadViewCount(cb_entryId);var cb_postType=1;var isMarkdown=true;</script>

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值