5.3 硬件预读

硬件预读在减少代码干预、利用运行时信息方面具有优势,但也存在预读不准确和资源消耗大的问题。常见的硬件预读机制包括OBL、Always Prefetch、Prefetch-on-Miss和Tagged Prefetch,其中Tagged Prefetch在降低Miss Ratio方面表现较好,但使用更多硬件资源。文章探讨了各种机制的适用场景和局限性,如Stride信息的利用和Triangle-Shaped Loop的处理,以及Prefetch带来的Cache Pollution和功耗问题。
摘要由CSDN通过智能技术生成

采用硬件预读的优点是不需要软件进行干预,不会扩大代码的尺寸,不需要浪费一条预读指令来进行预读,而且可以利用任务实际运行时的信息(Run Time Information)进行预测,这些是硬件预读的优点。

硬件预读的缺点是预读结果有时并不准确,有时预读的数据并不是程序执行所需要的,比较容易出现Cache Pollution的问题。更重要的是,采用硬件预读机制需要使用较多的系统资源。在很多情况下,耗费的这些资源与取得的效果并不成比例。

硬件预读机制的历史比软件预读更为久远,在IBM370/168处理器系统中就已经支持硬件预读机制。大多数硬件预读仅支持存储器到Cache的预读,并在程序执行过程中,利用数据的局部性原理进行硬件预读。

最为简单的硬件预读机制是OBL(OneBlock Lookahead)机制,这种方式虽然简单,但是在许多情况下效率并不低于许多复杂的实现,也是许多处理器采用的方式。OBL机制有许多具体的实现方式,如Always prefetchPrefetch-on-missTagged prefetch[23]

在使用Always PrefetchOBL实现方式时,当一段程序访问数据块b时,只要数据块b+1没有在CacheHit,就对数据块b+1进行预读。这种方式的缺点是可能程序访问数据块b之后,将很长时间不使用数据块b+1,从而带来较为严重的Cache Pollution。使用这种方式时的Access Ratio2

在使用Prefetch-on-MissOBL实现方式时,当程序对数据块b进行读取出现Cache Miss时,首先将数据块b从存储器更新到Cache中,同时预读数据块b+1Cache中;如果数据块b+1已经在Cache中,将不进行预读。使用这种方式时的Access Ratio1+Miss Ratio

AlwaysPrefetchPrefetch-on-Miss OBL方式没有利用之前的历史信息,在某些应用中,容易造成Cache PollutionTagged PrefetchPrefetch-on-Miss实现方式的一种改进,其实现相对较为复杂,也使用了额外的硬件资源。

在使用Tagged PrefetchOBL实现方式时,需要为每一个Cache Block设置一个Tag位,该位在复位或者当前Cache Block被替换时设置为0。如果当前Cache Block是因为Prefetch的原因从其下的存储器子系统中获得时,该位依然保持为0

当前CacheBlock在预读后第一次使用,或者是Demand-Fetched时,Tag位将从0转换为1,此时如果其后的数据块不在Cache Block时将进行预读[23]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值