15、Redis集群
15.1、问题
容量不够,redis如何进行扩容?
并发写操作,redis如何分摊?
另外,主从模式,薪火相传模式,主机宕机,导致IP地址发生变化,应用程序配置需要修改对应的主机地址,端口等信息
之前通过代理主机来解决,但是redis3.0提供了解决方案,就是无中心化集群配置
15.2、什么是集群
Redis集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N
Redis集群通过分区(partition)来提供一定程度的可用性(availability):即使集群中有一部分节点失效或者无法进行通讯,集群也可以继续处理命令请求
15.3、搭建集群
1、将原来的dump6379.rdb、dump6380.rdb和dump6381.rdb文件都删除
2、新建redis6379.conf、redis6380.conf、redis6381.conf、redis6389.conf、redis6390.conf、redis6391.conf
每个文件配置以下信息
include /myRedis/redis.conf
pidfile "/var/run/redis_6379.pid"
port 6379
dbfilename "dump6379.rdb"
cluster-enabled yes
cluster-config-file nodes-6379.conf
cluster-node-timeout 15000
配置好一个redis6379.conf后,其它的可以复制redis6379.conf
cp redis6379.conf redisxxx.conf
vim redisxxx.conf
%s/6379/xxxx
3、启动这6个redis服务
4、将这6个节点组合成一个集群
组合之前,确保所有redis实例启动后,nodes-xxxx.conf文件都生成正常
一切正常后输入cd /opt/redis-7.0.0/src
进入该目录
然后输入以下命令
redis-cli --cluster create --cluster-replicas 1 192.168.20.100:6379 192.168.20.100:6380 192.168.20.100:6381 192.168.20.100:6389 192.168.20.100:6390 192.168.20.100:6391
此处不用127.0.0.1,用具体的IP地址
–replicas 1采用最简单的方式配置集群,一台主机,一台从机,正好三组
5、使用redis-cli -c -p 6379
采用集群策略连接,设置数据会自动切换到相应的写主机
6、使用cluster nodes
命令查看集群信息
15.4、redis cluster如何分配这六个节点?
一个集群至少要有3个主节点
选项--cluster replicas 1
表示我们希望为集群中的每个主节点创建一个从节点
分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库也要保证不在同一个IP地址上,这样可以保证某台主机所在Linux系统挂掉后,不至于影响其他机器运作
15.5、什么是slots
一个Redis集群中包含16384(0-16383)个插槽(hash slot),数据库中的每个键都属于这16384个插槽中的一个
集群使用公式CRC16(key)%13684来计算键key属于哪个槽,其中CRC16(key)语句用于计算键key的CRC16校验和
15.6、往集群中写入/读取值
往集群中写入值时,redis会先计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,不过我们在连接客户端时使用了redis-cli -c -p 6379
,其中的-c参数实现了自动重定向
不在一个slot下的键值,是不能使用mget、mset等多键操作
但是可以通过{}来定义组的概念,从而是key中{}内相同内容的键值放到一个slot中去
从集群中读取值的话,要在插槽对应的客户端服务器进行查询,否者报错,但是因为我们连接客户端时使用了-c参数,所以会自动重定向
15.7、查询集群中的值
必须在插槽对应的服务器上查找,否则报错
cluster keyslot <key>
查询某个key对应的插槽号
cluster countkeysinslot 插槽号
查询某个插槽下key的个数
cluster getkeysinslot 插槽号 个数n
查询某个插槽下n个key
15.8、故障恢复
如果某个主机down了,该主机的从机会自动升为主机;原主机恢复后,它会成为新主机的从机
如果某一段插槽的主从机都down了,redis服务是否能继续需要视情况而定
- 如果某一段插槽主从down了,redis.conf中的参数为
cluster-require-full-coverage yes
那么整个集群都会挂掉 - 如果某一段插槽主从都down了,redis.conf中的参数为
cluster-require-full-coverage no
那么只是该段插槽无法正常提供服务了
15.9、集群的Jedis开发
即使连接的不是主机,集群会自动切换主机存储,主机写,从机读
无中心化主从集群,无论从哪台主机写的数据,其他主机上都能读到数据
public class JedisCluster{
public static void main(String[] args){
//创建连接集群的对象
HostAndPort hap = new HostAndPort("127.0.0.1",6379);
JedisCluster jc = new JedisCluster(hap);
jc.set("k1","v1");
System.out.println(jc.get("k1"));
}
}
15.10、Redis集群的优缺点
- 优点
- 实现扩容
- 分摊压力
- 无中心配置相对简单
- 缺点
- 多键操作是不被支持的
- 多键的Redis事务是不被支持的,lua脚本不被支持
- 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移到redis cluster,需要整体迁移而不是逐步过渡,复杂度较大
16、Redis应用问题解决
16.1、缓存穿透
16.1.1、问题描述
key对应的数据在数据源并不存在,每次针对此key的请求从缓存中获取不到,请求都会压到数据源,从而可能压垮数据源,比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库
16.1.2、解决方案
一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。
解决方案:
(1) 对空值缓存:如果一个查询返回的数据为空(不管是数据是否不存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟
(2) 设置可访问的名单(白名单):
使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。
(3) 采用布隆过滤器:(布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。
布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。)
将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被 这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力。
(4) 进行实时监控:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务
16.2、缓存击穿
16.2.1、问题描述
key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮
16.2.2、解决方案
key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。
解决问题:
(1)预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长
(2)实时调整:现场监控哪些数据热门,实时调整key的过期时长
(3)使用锁:
(1) 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db。
(2) 先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key
(3) 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key;
(4) 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。
16.3、缓存雪崩
16.3.1、问题描述
key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。
缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key
正常访问
16.3.2、解决方案
缓存失效时的雪崩效应对底层系统的冲击非常可怕!
解决方案:
(1) 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等)
(2) 使用锁或队列:
用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况
(3) 设置过期标志更新缓存:
记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存。
(4) 将缓存失效时间分散开:
比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。
16.4、分布式锁
16.4.1、问题描述
随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!
分布式锁主流的实现方案:
- 基于数据库实现分布式锁
- 基于缓存(Redis等)
- 基于Zookeeper
每一种分布式锁解决方案都有各自的优缺点:
- 性能:redis最高
- 可靠性:zookeeper最高
这里,我们就基于
redis
实现分布式锁
16.4.2、redis实现分布式锁
redis命令:set <key> <value> nx ex n
ex n
表示键的过期时间为n秒后,等同于setex <key> n <value>
nx
表示键不存在时,才对键进行设置操作,等同于setnx <key> <value>
(1)通过setnx上锁,del释放锁
(2)锁一直没释放,设置锁的过期时间expire <key> seconds
(3)上锁后服务器突然出现异常,无法设置过期时间了,可以上锁的同时设置过期时间set <key> <value> nx ex seconds
16.4.3、Java代码实现分布式锁
服务器中先设置一个key:set num 0
@GetMapping("testLock")
public void testLock(){
//1获取锁,setne
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", "111");
//2获取锁成功、查询num的值
if(lock){
Object value = redisTemplate.opsForValue().get("num");
//2.1判断num为空return
if(StringUtils.isEmpty(value)){
return;
}
//2.2有值就转成成int
int num = Integer.parseInt(value+"");
//2.3把redis的num加1
redisTemplate.opsForValue().set("num", ++num);
//2.4释放锁,del
redisTemplate.delete("lock");
}else{
//3获取锁失败、每隔0.1秒再获取
try {
Thread.sleep(100);
testLock();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
然后使用ab测试:ab -n 5000 -c 100 http://电脑IP:8080/testLock
然后redis中查看num值:
这里产生一个问题:setnx刚好获得锁,业务逻辑出现异常,导致无法释放锁
解决方法:设置过期时间,自动释放锁
@GetMapping("testLock")
public void testLock(){
//1获取锁,setne
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", "111",3,TimeUnit.SECONDS);
//2获取锁成功、查询num的值
if(lock){
Object value = redisTemplate.opsForValue().get("num");
//2.1判断num为空return
if(StringUtils.isEmpty(value)){
return;
}
//2.2有值就转成成int
int num = Integer.parseInt(value+"");
//2.3把redis的num加1
redisTemplate.opsForValue().set("num", ++num);
//2.4释放锁,del
redisTemplate.delete("lock");
}else{
//3获取锁失败、每隔0.1秒再获取
try {
Thread.sleep(100);
testLock();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
然后有产生了一个新问题,可能会释放其他服务器的锁
场景:如果业务逻辑的执行时间是7s。执行流程如下
- index1业务逻辑没执行完,3秒后锁被自动释放。
- index2获取到锁,执行业务逻辑,3秒后锁被自动释放。
- index3获取到锁,执行业务逻辑
- index1业务逻辑执行完成,开始调用del释放锁,这时释放的是index3的锁,导致index3的业务只执行1s就被别人释放。
最终等于没锁的情况。
解决:setnx获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否自己的锁
@GetMapping("testLock")
public void testLock(){
String uuid = UUID.randomUUID().toString();
//1获取锁,setne
Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid,3,TimeUnit.SECONDS);
//2获取锁成功、查询num的值
if(lock){
Object value = redisTemplate.opsForValue().get("num");
//2.1判断num为空return
if(StringUtils.isEmpty(value)){
return;
}
//2.2有值就转成成int
int num = Integer.parseInt(value+"");
//2.3把redis的num加1
redisTemplate.opsForValue().set("num", ++num);
//2.4释放锁,del
if(uuid.equals((String)redisTemplate.opsForValue().get("lock")){
redisTemplate.delete("lock");
}
}else{
//3获取锁失败、每隔0.1秒再获取
try {
Thread.sleep(100);
testLock();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
解决误删问题后,又产生了一个新问题,就是删除时无法保证原子性
使用LUA脚本保证删除的原子性
@GetMapping("testLockLua")
public void testLockLua() {
//1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中
String uuid = UUID.randomUUID().toString();
//2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
String skuId = "25"; // 访问skuId 为25号的商品 100008348542
String locKey = "lock:" + skuId; // 锁住的是每个商品的数据
// 3 获取锁
Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS);
// 第一种: lock 与过期时间中间不写任何的代码。
// redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间
// 如果true
if (lock) {
// 执行的业务逻辑开始
// 获取缓存中的num 数据
Object value = redisTemplate.opsForValue().get("num");
// 如果是空直接返回
if (StringUtils.isEmpty(value)) {
return;
}
// 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在!
int num = Integer.parseInt(value + "");
// 使num 每次+1 放入缓存
redisTemplate.opsForValue().set("num", String.valueOf(++num));
/*使用lua脚本来锁*/
// 定义lua 脚本
String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
// 使用redis执行lua执行
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
redisScript.setScriptText(script);
// 设置一下返回值类型 为Long
// 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
// 那么返回字符串与0 会有发生错误。
redisScript.setResultType(Long.class);
// 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
} else {
// 其他线程等待
try {
// 睡眠
Thread.sleep(1000);
// 睡醒了之后,调用方法。
testLockLua();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:
- 互斥性。在任意时刻,只有一个客户端能持有锁。
- 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。
- 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。
- 加锁和解锁必须具有原子性。
17、Redis6.0+新功能
17.1、ACL
17.1.1、简介
Redis ACL是Access Control List(访问控制列表)的缩写,该功能允许根据可以执行的命令和可以访问的键来限制某些连接。
在Redis 5版本之前,Redis 安全规则只有密码控制 还有通过rename 来调整高危命令比如 flushdb , KEYS* , shutdown 等。Redis 6 则提供ACL的功能对用户进行更细粒度的权限控制 :
(1)接入权限:用户名和密码
(2)可以执行的命令
(3)可以操作的 KEY
17.1.2、命令
acl list
展现用户权限列表
acl cat
查看权限指令类别
acl cat string
查看某权限指令类别下的具体命令
acl whoami
查看当前用户
-
acl setuser
创建和编辑用户ACL(1)ACL规则
(2)通过命令创建新用户默认权限
acl setluser user1
(3)设置有用户名、密码、ACL权限、并启用的用户
acl setuser user2 on >123456 ~cached:* +get
(4)切换用户,验证权限
auth user2 123456
17.2、IO多线程
17.2.1、简介
Redis6终于支撑多线程了,告别单线程了吗?
IO多线程其实指客户端交互部分的网络IO交互处理模块多线程,而非执行命令多线程。Redis6执行命令依然是单线程。
17.2.2、原理架构
Redis6 加入多线程,但跟 Memcached 这种从 IO处理到数据访问多线程的实现模式有些差异。Redis 的多线程部分只是用来处理网络数据的读写和协议解析,执行命令仍然是单线程。之所以这么设计是不想因为多线程而变得复杂,需要去控制 key、lua、事务,LPUSH/LPOP等等的并发问题。整体的设计大体如下:
另外,多线程IO默认也是不开启的,需要在配置文件中修改
/etc/redis.conf
io-threads-do-reads yes
io-threads 4
17.3、工具支持Cluster
之前老版Redis想要搭集群需要单独安装ruby环境,Redis 5 将 redis-trib.rb 的功能集成到 redis-cli 。另外官方 redis-benchmark 工具开始支持 cluster 模式了,通过多线程的方式对多个分片进行压测