GL-Cache: Group-level learning for efficient and high-performance caching

会议全称:

Conference on File and Storage Technologies

出版社:

USENIX

21st USENIX Conference on File and Storage Technologies

摘要:

web应用强依赖于软件缓存去实现低延迟和高吞吐量服务。

Web应用程序严重依赖软件缓存来实现低延迟、高吞吐量的服务

为去适应变化的负载,近年来为学习缓存(学习清除)设计三种方案:面向对象学习、面向分配学习和面向专家学习。

为了适应不断变化的工作负载,近年来设计了三种类型的学习缓存(学习清除):对象级学习、从分布中学习和从简单专家中学习

然而,我们在现有方法下讨论 学习的间隔尺寸过于细了(对象级),导致高计算量和存储;对于过于粗糙负载和专家级在对象和叶节点考虑存在高效差距的不同。

然而,我们认为,现有方法中的学习粒度要么太细(对象级),导致大量的计算和存储开销,要么太粗(工作负载或专家级),无法捕捉对象之间的差异,从而留下相当大的效率差距。

在这项工作中,我们提出一种新的方法在缓存中学习(”团体级学习“),该方法相似对象聚集为一组,进行性能学习和收回团队级。

在这项工作中,我们提出了一种新的缓存学习方法(“组级学习”),它将相似的对象聚类成组,并在组级执行学习和驱逐。

组级学习为学习积累更多信号,利用更多特征自适应权重和对超过阈值的对象开销进行平摊。因此,实现高效率和高吞吐量。

组级学习积累了更多的学习信号,利用了更多具有自适应权重的特征,并分摊了对象的开销,从而实现了高效率和高吞吐量。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值