Go Cache

缓存

缓存最简单的莫过于存储在内存中的键值对,键值对在Golang中称之为map。使用map做内存缓存时,每次有新数据就向map中插入数据就可以了吗?这样做存在的问题是什么呢?

  • 内存不够了,怎么办?
    内存不够删除数据就好了,怎么来删除呢?随机删除还是按时间顺序删除呢?有没有更好的淘汰策略呢?不同数据的访问频率不同,优先删除访问频率低的数据是不是更好呢?数据访问频率可能随着时间变化,优先删除最近最少访问的数据可能是更好地选择。因此,需要实现一个合理的淘汰策略。
  • 并发写入冲突了,怎么办?
    对于缓存的访问一般不可能是串行的,map是没有并发保护的,应对并发场景,增删改查操作都需要加锁。
  • 单机性能不够了,怎么办?
    单台计算机资源是有限的,计算、存储都是有限的。随着业务量和访问量的增加,单台机器很容易遇到瓶颈。如果利用多台计算机的资源,并行处理提高性能就要缓存应用能够支持分布式,这称为水平扩展。与水平扩展相对应的是垂直扩展,即通过增加单个节点的计算、存储、带宽等来提高系统的性能,硬件的成本和性能并非呈线性关系,大部分情况下分布式系统是一个更优的选择。
    ...

如何设计分布式缓存系统,需要考虑资源控制、淘汰策略、并发、分布式节点通信等各个方面的问题。针对不同的应用场景,需要在不同的特性之间权衡。例如:是否需要支持缓存更新?还是假定缓存在淘汰之前是不允许改变的。不同的权衡对应着不同的实现。

参考应用 groupcache

  • groupcache是Golang版本的memcached,目的是在某些特定场合替代memcached。
  • groupcache的作者也是memcached的作者

缓存特性

  • 单机缓存和基于HTTP的分布式缓存
  • 最近最少访问(LRU,Least Recently Used)缓存策略
  • 使用Golang锁机制防止缓存击穿
  • 使用一致性哈希选择节点以实现负载均衡
  • 使用Protobuf优化节点间二进制通信
    ...

淘汰策略

由于缓存全部存储在内存中,内存本身是有限的,因此不可能无限制地添加数据。

假如设置缓存能够使用内存大小为N,在某个时间点添加某一条缓存记录后,占用内存超过了N,此时就需要从缓存中移除一条或多条数据。那移除谁呢?肯定希望尽可能移除“没用”的数据,那如何判断数据“有用”还是“没用”呢?

常见的缓存淘汰策略分为三种:FIFO/LFU/LRU

FIFO: First In First Out 先进先出

FIFO先进先出即淘汰缓存中最早添加的也就是最老的记录

FIFO认为最早添加的记录其不再被使用的可能性会被刚添加的可能性大

FIFO算法实现,创建一个队列,新增记录添加到队尾,每次内存不够时淘汰队首。

FIFO缺陷在于很多场景下,部分记录虽然是最早添加的但也最常被访问,而不得不因为呆的时间太长而被淘汰,此类数据会被频繁地添加缓存,又被淘汰出来,导致缓存命中率低。

LFU: Least Frequently Used 最少频繁使用

LFU是淘汰缓存中访问频率最低的记录

LFU认为若数据过去被访问多次,那么将来被访问的频率也更高。

LFU的实现需要维护一个按照访问次数排序的队列,每次访问时访问次数加1,队列重新排序,淘汰时选择访问次数最少的即可。

LFU算法的命中率比较高,缺点在于需要维护每个记录的访问次数,对内存的消耗是很高的。另外,如果数据的访问模式发生变化,LFU需要较长的时间去适应,也就是说LFU算法受历史数据的影响比较大。

例如:某个数据历史上访问次数奇高,但在某个时间点之后几乎不再被访问,但因为历史访问次数过高,而迟迟不能被淘汰。

LRU: Least Recently Used 最近最少使用

LRU最近最少使用,相对于仅考虑时间因素的FIFO和仅考虑访问频率的LFU,LRU算法可认为是相对平衡的一种淘汰算法。

LRU核心思想是若数据最近访问过,那么将来被访问的概率也会更高。其实现方式是使用一个链表保存数据,当新数据插入到链表头部时,每当缓存命中(即缓存数据被访问)则将数据移动到链表头部。当链表满时将链表尾部数据丢弃。

LRU算法的实现需维护一个队列,如果某条记录被访问了,则移动到队尾,那么队首则是最近最少访问的数据,淘汰该条记录即可。

LRU算法

LRU算法最核心的2个数据结构

  • 绿色的是字典(map)存储键和值的映射关系,根据某个键(key)查找对应的值(value)的复杂度是O(1),在字典中插入一条记录的复杂度也是O(1)
  • 红色的是双向链表(double linked list)实现的队列,将所有的值放到双向链表中,当访问到某个值时,将其移动到队尾的复杂度为O(1),在队尾新增一条记录以及删除一条记录的复杂度均为O(1)

LRU算法实现

  • 缓存淘汰策略
  • 创建一个包含字典和双向链表的结构体类型Cache以方便实现后续的增删改查操作
  • 使用Golang标准库container/list中的list.List实现双向链表
  • 字典定义map[string]*liste.Element中键名为字符串,键值是双向链表中对应节点的指针。
  • 设置允许使用的最大内存maxBytes和当前已经使用的内存usedBytes
  • 添加记录被删除时的回调函数onEvicted,可以为nil
  • 为了通用性允许值是实现Value接口的任意类型,该接口只包含一个Len() int方法用于返回值所占用的内存大小。
package web

import "container/list"

//Value 接口
type Value interface {
    Len() int //值占用的内存大小
}

//LRU 缓存 Least Recently Used 最近最少使用
type LRU struct {
    dll       *list.List                    //双向链表 Double Linked List
    dict      map[string]*list.Element      //字典键值对
    maxBytes  int64                         //最大可用内存
    usedBytes int64                         //当前已用内存
    onEvicted func(key string, value Value) //记录删除时触发的回调函数
}

实例化创建缓存

//NewLRU 创建缓存
func NewLRU(maxBytes int64, onEvicted func(string, Value)) *LRU {
    return &LRU{
        dll:       list.New(),
        dict:      make(map[string]*list.Element),
        maxBytes:  maxBytes,
        onEvicted: onEvicted,
    }
}

获取数据条数

  • 实现接口Len()方法用于获取添加了多少条数据
//Len 实现接口获取数据条数
func (l *LRU) Len() int {
    return l.dll.Len()
}

缓存查询

  • 从字典中找到对应的双向链表的节点后,将该节点移动至队尾。
  • 若键名对应的链表节点存在则将对应节点移动到队尾,同时返回查找到的值。
  • list.MoveToFront(ele)即将链表中的节点ele移动至队尾
  • 双向链表作为队列,队首队尾是相对的,默认约定front为队尾。
//Entry 字典实体结构
type Entry struct {
    key   string
    value Value
}

//Get 根据键名查找键值
func (l *LRU) Get(key string) (value Value, ok bool) {
    //判断字典中是否存在键
    ele, ok := l.dict[key]
    if !ok {
        return nil, false
    }
    //将目标节点移动至队尾
    l.dll.MoveToFront(ele)
    //获取值并转换格式
    kv := ele.Value.(*Entry)
    //返回数据
    return kv.value, true
}

读取时从map中查询,若能查询到值则直接将List中该值移动到链表头部同时返回查询结果。

  • 为了保证并发安全需引入读写锁。
  • 存在读取List中内存反差map的情况,因为声明一个容器对象同时保存keyvalue
  • List中及map中存储的都是容器对象的引用
  • 引入原子对象命中数以及未命中数等指标进行统计

缓存删除

  • 缓存淘汰实际上是缓存淘汰,即从队首移除最近最少访问的节点。
  • list.Back()获取队列队首节点后从链表中删除节点
  • delete(map, key)从字典中删除对应节点的映射关系
  • 更新当前所用的内存空间
  • 若当前回调函数不为nil则调用
//Eliminate 淘汰策略 删除节点
func (l *LRU) Eliminate() {
    //获取队首元素
    ele := l.dll.Back()
    if ele == nil {
        return
    }
    //移除最近最少访问的节点
    l.dll.Remove(ele)
    //获取字典并删除键值对
    kv := ele.Value.(*Entry)
    delete(l.dict, kv.key)
    //重置可用空间
    l.usedBytes -= int64(len(kv.key)) + int64(kv.value.Len())
    //触发删除回调
    if l.onEvicted != nil {
        l.onEvicted(kv.key, kv.value)
    }
}

新建或修改

  • 若字典中键存在则更新对应节点的值,然后将该节点移动至队尾。
  • 若字典中不存在键则为新增,首先在队尾添加新节点,然后在字典中添加key和节点的映射关系。
  • 更新已使用内存大小,若超过设定的最大值则移除最少访问的节点。
//Add 新增或更新键值对
func (l *LRU) Add(key string, value Value) {
    //判断键是否存在
    if ele, ok := l.dict[key]; ok {
        //更新 将节点移动至队尾
        l.dll.MoveToFront(ele)
        //获取字典键值对
        kv := ele.Value.(*Entry)
        //更新已使用大小
        l.usedBytes += int64(value.Len()) - int64(kv.value.Len())
        //更新字典
        kv.value = value
    } else {
        //添加
        entry := &Entry{key, value}
        ele := l.dll.PushFront(entry)
        l.dict[key] = ele
        l.usedBytes += int64(len(key)) + int64(value.Len())
    }
    //淘汰策略
    for l.maxBytes != 0 && l.maxBytes < l.usedBytes {
        l.Eliminate()
    }
}

测试

package main

import (
    "fmt"
    "gfw/web"
)

type String string

func (str String) Len() int {
    return len(str)
}

func main() {
    k1, k2, k3 := "id", "name", "pid"
    v1, v2, v3 := "1", "admin", "0"
    cap := len(k1 + k2 + v1 + v2)

    keys := make([]string, 0)
    lru := web.NewLRU(int64(cap), func(key string, val web.Value) {
        fmt.Printf("DEL:key = %v, val = %v\n", key, val)
        keys = append(keys, key)
    })
    lru.Add(k1, String(v1))
    fmt.Printf("ADD:%v\n", lru)
    lru.Add(k2, String(v2))
    fmt.Printf("ADD:%v\n", lru)
    lru.Add(k3, String(v3))
    fmt.Printf("ADD:%v\n", lru)

    val, ok := lru.Get(k3)
    if !ok {
        panic("cache get error")
    }
    fmt.Printf("GET:key = %v, val = %v, type = %T, v = %v\n", k3, val, val, string(val.(String)))

    if !reflect.DeepEqual(keys, []string{k1, k2}) {
        panic("call OnEvicated failed")
    }
}

单机并发

  • 使用sync.Mutex互斥锁实现LRU缓存并发控制

当多个goroutine同时读写同一个变量,在并发度较高的情况下会发生冲突。为确保每次只有一个goroutine可以访问变量以避免冲突,称之为互斥。

解决互斥问题可使用互斥锁sync.Mutexsync.Mutex是一个互斥锁,可由不同的goroutine加锁和解锁。

sync.Mutex是Golang提供的一个互斥锁,当一个goroutine获得互斥锁的拥有权后,其他请求锁的goroutine会阻塞在Lock()方法的调用上,直到调用Unlock()锁被释放。

缓存值

  • 缓存值的抽象与封装
  • 抽象一个只读数据结构ByteView用来表示缓存值作为Cache主要的数据结构之一
  • ByteView只有一个数据成员data []byte用于存储真实的缓存值
  • 选择byte类型是为了能够支持任意的数据类型的存储,比如字符串、图片等。
  • data是只读的,使用Clone()方法返回一个拷贝,以防止缓存值被外部程序修改。
  • 实现Len() int方法,由于LRU实现中要求被缓存的对象必须实现Value接口,即实现Len() int方法以返回其占用的内存大小。
$ vim byte_view.go
package web

//ByteView 只读数据结构用于表示缓存值
type ByteView struct {
    data []byte //缓存值 只读属性 byte类型可支持任意数据类型
}

//Clone 设置data属性为只读
//返回拷贝以防止缓存值被外部程序修改
func (bv ByteView) Clone() []byte {
    bs := make([]byte, len(bv.data))
    copy(bs, bv.data)
    return bs
}

//Len 缓存对象必须事项Value接口的Len方法以获取占用内存大小
func (bv ByteView) Len() int {
    return len(bv.data)
}

//String 将缓存值转换为字符串
func (bv ByteView) String() string {
    return string(bv.data)
}

缓存

  • 为缓存添加并发控制特性
  • 缓存实现需实例化LRU、添加addget方法以存储键值对,同时添加互斥锁。
  • add方法中首先需要判断LRU实例是否为nil,若为nil则先创建。这种方式称之为延迟初始化。

延迟初始化(Lazy Initialization),一个对象的延迟初始化意味着该对象的创建将会延迟至第一次使用该对象时,主要用于提高性能,并减少程序内存要求。

$ vim cache.go
package web

import "sync"

//cache 缓存
type cache struct {
    mutex sync.Mutex //互斥锁
    lru   *LRU       //LRU淘汰策略
    size  int64      //缓存最大尺寸
}

//add 添加缓存
func (c *cache) add(key string, value ByteView) {
    //添加锁
    c.mutex.Lock()
    defer c.mutex.Unlock()
    //延迟初始化
    if c.lru == nil {
        c.lru = NewLRU(c.size, nil)
    }
    //添加键值对
    c.lru.Add(key, value)
}

//get 获取缓存
func (c *cache) get(key string) (value ByteView, ok bool) {
    //添加锁
    c.mutex.Lock()
    defer c.mutex.Unlock()
    //判断LRU实例是否存在
    if c.lru == nil {
        return
    }
    //获取键值
    val, ok := c.lru.Get(key)
    if !ok {
        return
    }
    return val.(ByteView), ok
}

回调

  • 如果缓存不存在应从数据源获取数据并添加到缓存中
  • 缓存是否应该支持多种数据源的配置呢?不应该,一是数据源的种类太多,没办法一一实现,二是扩展性不好。
  • 如何从源头获取数据,应该是用户决定的事情。因此设计一个回调函数,在缓存不存在时调用以获得源数据。

回调实现

  • 定义接口Callback和函调函数Call(key string) ([]byte, error),参数为key返回值是[]byte
  • 定义函数类型CallbackFunc并实现Callback接口的Call方法
  • 函数类型实现某一个接口称之为接口型函数,方便使用者在调用时即能够传入函数作为参数,也能够传入实现了该接口的结构体作为参数。
$ vim callback.go
package web

type Callback interface {
    Call(key string) ([]byte, error)
}

type CallbackFunc func(key string) ([]byte, error)

func (cf CallbackFunc) Call(key string) ([]byte, error) {
    return cf(key)
}

测试

package test

import (
    "gfw/web"
    "reflect"
    "testing"
)

func TestCallback(t *testing.T) {
    //类型转换 将匿名回调函数转换为接口
    var cb web.Callback = web.CallbackFunc(func(key string) ([]byte, error) {
        return []byte(key), nil
    })
    //调用接口方法,即调用匿名回调函数
    v, _ := cb.Call("key")
    //测试
    expect := []byte("key")
    if !reflect.DeepEqual(v, expect) {
        t.Errorf("callback failed")
    }
}

定义函数类型F同时实现接口A的方法,在A方法中调用自己。这是Golang中将其它函数(参数返回值定义与F一致)转换为接口A的常用技巧。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在go cache中,清理整个table的cache可以通过调用Flush()方法来实现。这个方法会重新初始化table的items,即清空整个缓存。同时,如果此时还有清理过期定时器在运行,会终止其运行。\[2\] 在cache2go这个项目中,使用了map作为本地缓存的kv存储结构。由于map是非线程安全的,所以在并发场景下需要使用锁来控制并发的读和串行写。项目中使用了RWMutex读写锁来实现这个功能。\[3\] 另外,为了避免频繁遍历整个集合来清理过期的Key,可以在写入时判断是否存在需要清理的Key,再启动定时任务来进行清理。这样可以避免耗费过多的时间和资源。\[3\] 此外,可以利用golang函数式的特性,方便地实现各种操作的回调函数,比如添加、删除、失效操作的回调等。这样可以更加灵活地处理缓存的操作。\[3\] 对于优化空间,可以在创建缓存时指定限制key的最大数量,以及在内存不足时的写入策略,比如直接报错或者随机清理一批Key等。这样可以避免内存溢出的问题。\[3\] #### 引用[.reference_title] - *1* *2* *3* [Golang源码分析:本地缓存库cache2go](https://blog.csdn.net/pbrlovejava/article/details/127405406)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值