redis

本文详细介绍了Redis的缓存机制,包括设置超时时间、惰性删除和内存淘汰策略。探讨了缓存穿透、击穿和雪崩问题及解决方案。此外,还讲述了Redis的主从同步、哨兵模式以及在分布式锁中的应用,对比了与MySQL和Zookeeper的异同。
摘要由CSDN通过智能技术生成

redis可以将查询结果缓存,减少与数据库的交互。很多操作都是读操作,很多时候都是反复查询一个东西,就可以将查询结果缓存到内存中,需要的时候从缓存里取,不需要查询数据库。从内存中读取比从数据库查询也要快得多。

redis支持的数据类型:string、list、hash、sort、zsort。

一、缓存机制

缓存的数据在内存中,而内存资源是有限的,不能无节制的缓存下去。

1、设置超时时间。

设置缓存的超时时间,过期的缓存就会被清除掉。每100ms就会做一次清理过期缓存。redis可以缓存大量的数据,不能一次就把所有过期的缓存都清除掉,因为还要留资源去接待新请求。

2、惰性删除

redis随机选择一部分过期的缓存清除,这就会出现一个情况,就是某些过期的缓存会多次都逃逸掉了被清除。于是在定期删除的基础上,又增加了一招,就是一个查询请求过来,发现这个缓存已经过期了,就会立即删除。因为是被动触发的,不查询就不会删除,因此又叫做惰性删除。

3、内存淘汰策略

仍会有个别的缓存,逃掉了定期删除,也逃掉了惰性删除。引入了内存淘汰策略。

八种内存淘汰策略:
noeviction:默认策略,返回错误,不会删除任何键值。
allkeys-lru:使用 LRU 算法删除最近最少使用的键值。
volatile-lru:使用 LRU 算法从设置了过期时间的键值集合中删除最近最少使用的键值。
allkeys-random:从所有key随机删除。
volatile-random:从设置了过期时间的键的集合中随机删除。
volatile-ttl:从设置了过期时间的键中挑选剩余时间最短的键删除。
allkeys-lfu:从设置了过期时间的键中挑选使用频率最少的键删除。
volatile-lfu:从所有键中删除使用频率最少的键。 

二、缓存问题

缓存穿透:

如果查询的数据不存在,那就不会缓存到内存,下次这个查询又来了,因为缓存中没有,仍然会查询数据库,这就是缓存穿透。

缓存击穿:

热点数据到期,从缓存中删除掉了,随后有大量的这个请求过来,因为缓存中没有,因此会去查询数据库。

缓存雪崩:

大量的热点数据几乎同时过期,缓存中已经删除了,大量的请求都到数据库了,这就是缓存雪崩。

解决方案:把缓存过期时间设置的均匀一些,不要几乎同时过期。

三、缓存持久化

如果遇到了某些原因系统崩溃了,那缓存在内存中的数据就都没有了,项目重启之后,大量的请求又都会到数据库。

解决方案:如果可以能把缓存在内存的数据持久化到磁盘就可以解决这个问题了。

持久化方案有RDB、AOF。

1、RDB

RDB(Redis DataBase缩写快照)是Redis默认的持久化方式。按照一定的时间将内存的数据以快照的形式保存到硬盘中,对应产生的数据文件为dump.rdb。通过配置文件中的save参数来定义快照的周期;记录Redis数据库的所有键值对,在某个时间点将数据写入一个临时文件持久化结束后,用这个临时文件替换上次持久化的文件达到数据恢复

优点:

fork子进程来完成写操作,让主进程继续处理命令,主进程不会进行 IO 操作,保证了Redis的高性能。


缺点:

1、RDB不适合高频备份,是间隔一段时间进行持久化(根据如何配置),会发生数据丢失。所以这种方式更适合数据要求不严谨的时候。

2、如果这个备份周期都是读操作没有写操作,那么就不需要持久化操作的。
 

2、AOF

redis是命令式的,响应命令的请求。类似mysql的binlog文件记录所有的写sql,将redis所有执行的写命令都记录下来写入aof文件。如果每执行一个命令就写入一次文件会影响性能,因此就有了aof_buf缓冲区,aof_buf会临时保存执行的命令,然后再择机写入文件。

随着时间的推移,aof文件会越来越大。AOF重写就是压缩aof文件给aof文件瘦身,如何压缩呢?

指令合并:

例如,一个值被改来改去的,那就可以只记录最终的值。

也fork子进程来做这件事。子进程在重写期间,要是修改了数据,就会出现和重写的内容不一致的情况(1、子进程重写前,name=zhangsan。2、子进程重写,name=zhangsan。3、缓存中name修改了,name=lisi)。

为解决aof重写数据不一致的问题,又引入一个aof_rewrite_buf缓冲区,从创建重写子进程的那一刻起,把后来的写入命令也copy一份写到aof_rewrite_buf缓冲区,等到子进程重写文件结束之后,再把aof_rewrite_buf缓冲区的内容写入新的aof文件,最后重命名文件替换原来臃肿的大文件。

四、redis主从同步+哨兵

如果只有一个节点,这个节点又挂掉了,那么就无法提供服务了。为实现高可用,可以使用redis集群,多个节点,如果一个挂掉了,还有其他的节点可以提供服务。

主从模式,主节点负责写数据,从节点负责读数据,做好数据同步,读写分离,提高性能。如果主节点崩溃了,选择一个从节点成为主节点,实现高可用。

如果主节点有新增、修改、删除,也会把这些命令挨个通知到从节点,这就是命令传播。通过这样的方式,主节点与从节点之间数据就能保持同步了。但是,如果一个从节点B掉线了,节点B只同步自己掉线那段时间的数据就可以了,不需要同步全部的数据,而RDB文件里是全部的数据,节点B该如何仅同步自己掉线那段时间的数据呢?

解决方案:主节点内部准备一个缓冲区,后面传播命令的时候,除了同步给从节点,也往缓冲区写入一份,这样如果某个子节点掉线了,子节点只同步缓冲区里最后的同步命令就可以了。

 主节点怎么知道缓存的和子节点缺失的能不能对得上呢?怎么知道该发缓存中的哪些给子节点呢?

解决方案:弄一个游标,叫做赋值偏移量,最开始从0开始,随着数据复制和同步,大家一起更新,后面只需要比较各自的偏移量,就能知道缺失哪些数据了。

虽然有了主从复制,但主节点要是挂了,还是需要程序员来手动选择从节点升级为主节点来提供写入服务,不够智能,如何解决?

解决方案:从redis集群选择一个服务当管理员,不用负责数据的读写,专门统筹协调,如果哪个节点掉线了,就从子节点中选择一个顶上主节点。

这个管理页就被叫做哨兵,但要是管理员挂了呢?也要多找几个管理员。管理员和主节点沟通。

为了及时获得和更新主从节点的信息,哨兵每隔10秒钟就要用info命令去问候一下主节点,主节点会告诉哨兵都有哪些从节点,为了更加及时知道节点是否掉线,哨兵每隔1秒就要用ping命令问候一下各个节点,如果在设置的时间里没有收到回复,那没有回复的节点就可能是挂了,此时是主观下线,为防止误判,还要确认一下其他的哨兵是否也判定为下线,如果多数哨兵都判定节点下线,才认定为客观下线。判定为客观下线,就可以启动故障转移了。

故障转移:

1、选择新的主节点。2、让其他从节点从新的主节点那里同步数据。3、把原来旧的主节点改为从节点。

选择新的主节点的规则:

1、可以给节点设置优先级,硬件配置高的优先级越高,挑选主节点的时候就按照这个优先级来。

2、优先选择跟主节点断开连接最短的节点,这样它的数据会更新一点。

3、还可以参考一下复制偏移量,越大的数据应该越全。

五、redis集群

主从复制+哨兵,解决了高可用,但是不能解决数据量大的问题,因为虽然节点多,但存储的都是全量数据,不能解决数据量大的问题。

解决方案:

将所有节点的内存拼起来,成为一个大的缓存服务器,这就是集群。

参考TCP的三次握手,想要加入集群,通过集群中的任意一个成员都行,例如经过集群中的A,知道要加入进来的服务D的IP和端口,A和D经过三次握手就行了,A再把这个消息告诉集群中的其他成员,D就正式成为集群中的一份子了。

既然是集群,就要解决数据存储的公平问题,不能旱的旱死涝的涝死,学习hash表的方法,总共划分了16384的哈希桶,这些哈希桶叫做槽位slot,程序员可以根据集群成员的硬件配置给分配槽位,数据读写的时候,对键值做一下hash计算,映射到哪个槽就由对应的服务负责,为了让大家的信息达成一致,启动的时候,每个成员都要把自己负责的槽位信息告诉其他伙伴,一共有1万多个槽要通知其他成员,需要传输的数据量还是挺大的,为了压缩数据空间,每个槽就用一个bit表示,自己负责就是1,否则就是0,这样一共才16384个bit,传输起来轻便快捷。

遇到读写数据的时候,总不能挨个去看谁的那一位是1吧,干脆一步到位,用空间换时间,又准备了一个超大的数组来存储每个槽由哪个节点负责,通过上面的方式拿到信息后就更新到这里来。补图。这样一来遇到数据访问的时候,就能快速知道这个歌数据是由哪个槽来负责的。这16384个槽位都有节点负责,整个集群才是正常工作。

数据读写的时候多了一个步骤,要先检查槽位是不是由自己负责,如果是自己负责那就进行处理,否则的话就要返回一个MOVED错误给请求端,同时把槽号、IP和端口告诉请求端。让请求端知道该找谁处理,这个过程,程序员是不感知的。

如果集群中哪个挂了怎么处理呢?每个节点至少得有一个backup才行,如果节点挂了,backup能快速顶上。

六、redis用于分布式锁

分布式锁:满足在分布式系统或在集群模式下多进程可见并且互斥的锁。

分布式锁要能保证多进程可见、互斥、高可用、高并发、安全性。

互斥:只能有一个线程可以获取到锁。

高可用:大多数情况下来获取锁,都应该是成功的,不能获取锁的动作经常出现问题。

高并发:加锁之后,线程变成串行执行,如果获取锁的动作又很慢,就雪上加霜了。

安全性:要考虑获取锁会出现的一些异常的情况。例如获取到了锁,出现了异常没有释放锁就挂掉了。

mysql如何实现分布式锁

数据库都具有事务机制,执行写操作的时候mysql会自动分配一个互斥的锁,这样一来在多个事务之间就是互斥的。因此可以在业务执行前先去跟mysql数据库申请一个互斥锁,业务执行成功,就提交事务,就会释放锁,如果出现异常就会触发回滚,也会释放锁,以达到分布式锁的目标。

可用性就依赖于mysql本身的可用性,mysql是可以支持主从模式的,因此mysql实现分布式锁的可用性还是不错的。

性能也就受限于mysql的性能,mysql的性能是低于redis的性能的。

redis如何实现分布式锁

redis的setnx互斥命令,如果数据不存在才能set成功,如果数据已经存在,那就会set失败。如果很多个线程都来执行同一个key的setnx,那就只会有一个线程执行成功,实现互斥,以达到实现分布式锁的目标。释放锁也很简单,只要把这个key删除就可以了,其他线程就可以获取锁了。

redis不仅支持主从模式,还支持集群模式,因此redis实现分布锁的可用性较好。

高并发:redis的性能远好于mysql。

安全性:安全性不好,因为一个key执行setnx成功后,如果服务宕机了,就无法删除这个key,锁就得不到释放,这样其他的线程就拿不到锁了。要解决这个问题,就是如果出现问题了,锁仍然可以释放。解决方案,利用redis的key的过期机制,就算出现问题了,到了设置的过期时间,这个key仍然会被删除。另一个问题又出现了,就是过期时间应该设置多长,如果设置的过短,就可能业务还没处理完成锁就被释放掉了,而如果过期时间设置的过长,锁无效等待的时间就会过长。

zookeeper如何实现分布式锁

zookeeper可以利用节点的唯一性和有序性实现互斥。

唯一性:创建的节点不能重复。

有序性:每创建一个节点,节点的id是递增的。

可以利用唯一性实现互斥,多线程用同样的名称去创建节点,只有一个节点可以创建成功,那么成功的这个节点就获取锁成功。

也可以利用有序性实现互斥。例如,多个节点都来创建节点,每个节点的id都是递增的,可以约定id最小的节点就是获取锁成功,以实现互斥。

一般情况下都利用有序性实现互斥。释放锁的方式,就是删除节点,下一个节点id最小的获取到锁。

可用性:zookeeper支持集群,因此可用性好。

高并发:性能比redis差一点,因为zookeeper集群的强一致性消耗性能。

安全性:良好,如果出现宕机了,创建的临时节点断开会自动释放。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值