prefetch相关论文阅读笔记
论文1. Revisiting Data Prefetching for Database Systems with Machine Learning Techniques(2021)
本文认为访问模式(access pattern)只有三种:(1) locality within a transaction, (2) random access by transactions and (3) sequential accesses by long queries。以本文的观点,是不存在事件之间的联系的,因此下文机器学习模型的训练和预测都是以事件为单位。这三种访问模式是否涵盖全面可以思考一下。
本文对于机器学习预取模型的功能描述是:输入前N-1个访问的页,模型能够预测第N个访问的页。
文章提出的思路被概括为如下几个步骤:数据准备,输入转换,表示学习和预测。
数据准备就是把访问序列按照transaction分割好,作为训练输入。
由于页的地址空间很大,用地址直接表示页会存在表示稀疏问题,于是地址被划分为许多个extent单元,访问序列中的每一个页用如下方式表示:页所在的extent号,和页在extent内的地址,这样大大缩小了表示空间,这就是输入转换。
表示学习就是神经网络出场的步骤。这里神经