作者:羽洵
地址;https://yq.aliyun.com/articles/705239
网上公开的技术细节比较少,本文基本是通过阅读源码总结出来的
多线程架构
线程模型
KeyDB将redis原来的主线程拆分成了主线程和worker线程。每个worker线程都是io线程,负责监听端口,accept请求,读取数据和解析协议。如图所示:
-
处理统计
-
客户端链接管理
-
db数据的resize和reshard
-
处理aof
-
replication主备同步
-
cluster模式下的任务
链接管理
KeyDB维护了三个关键的数据结构做链接管理:
-
clients_pending_write:线程专属的链表,维护同步给客户链接发送数据的队列
-
clients_pending_asyncwrite:线程专属的链表,维护异步给客户链接发送数据的队列
-
clients_to_close:全局链表,维护需要异步关闭的客户链接
int fdCmdWrite; //写管道
int fdCmdRead; //读管道
本地线程需要异步发送数据时,先检查client是否属于本地线程,非本地线程获取到client专属的线程ID,之后给专属的线程管到发送AE_ASYNC_OP::CreateFileEvent的操作,要求添加写socket事件。
专属线程在处理管道消息时将对应的请求添加到写事件中,如图所示:
redis有些关闭客户端的请求并非完全是在链接所在的线程执行关闭,所以在这里维护了一个全局的异步关闭链表。
锁机制
struct ticket
{
uint16_t m_active; //解锁+1
uint16_t m_avail; //加锁+1
};
struct fastlock
{
volatile struct ticket m_ticket;
volatile int m_pidOwner; //当前解锁的线程id
volatile int m_depth; //当前线程重复加锁的次数
};
使用原子操作__atomic_load_2,__atomic_fetch_add,__atomic_compare_exchange来通过比较m_active=m_avail判断是否可以获取锁。
fastlock提供了两种获取锁的方式:
-
try_lock:一次获取失败,直接返回
lock:忙等,每1024 * 1024次忙等后使用sched_yield 主动交出cpu,挪到cpu的任务末尾等待执行。
在KeyDB中将try_lock和事件结合起来,来避免忙等的情况发生。每个客户端有一个专属的lock,在读取客户端数据之前会先尝试加锁,如果失败,则退出,因为数据还未读取,所以在下个epoll_wait处理事件循环中可以再次处理。
Active-Replica
每个replica有个uuid标志,用来去除环形复制
新增加rreplay API,将增量命令打包成rreplay命令,带上本地的uuid
key,value加上时间戳版本号,作为冲突校验,如果本地有相同的key且时间戳版本号大于同步过来的数据,新写入失败。采用当前时间戳向左移20位,再加上后44位自增的方式来获取key的时间戳版本号。
正文结束
2
3
4
5
6
7
8
一个人学习、工作很迷茫?