狂神说Redis学习笔记整理

Redis笔记

概述

Redis(Remote Dictionary Server ),即远程字典服务,是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。

Redis能干嘛?

1、内存存储、持久化,内存中的数据是断电即失的,所以持久化很重要(RDB、AOF)
2、效率高,可以用于高速缓存
3、发布订阅系统
4、地图信息分析
5、计时器、计数器(浏览量)
6、…

特性

1、多样的数据类型
2、持久化
3、集群
4、事务

基础知识

1、redis默认有16个数据库,默认使用的是第0个数据库,可以使用select切换数据库

select 1  #切换1数据库
DBSIZE  #查看DB大小
keys *  #查看所有key
flushall #清空数据库
exists key #判断当前key是否存在
move key 1 #移除当前的key
expire key second #设置过期时间
ttl key  #查看key剩余过期时间
type key #查看key的类型

Redis是单线程的!!

官方表示,Redis是基于内存操作的,CPU不是Redis的性能瓶颈。Redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程,就使用单线程了!

Redis是C语言写的,官方提供的数据为100000+的QPS,完全不比同样使用key-value的MemeCache差!

Redis为什么单线程还这么快?
误区1:高性能服务器一定是多线程的
误区2:多线程(CPU上下文切换)一定比单线程效率高
核心:redis是将全部数据放在内存中,所以使用单线程去操作效率就是最高的,对于内存系统来说,如果没有上下文切换效率就是最高的,多次读写都是在一个CPU上。

Redis五大数据类型

1、String
set key value #设置key-value
get key  #获取key的value
exists key  #key是否存在
append key value #追加字符串,若key不存,相当于set key value
strlen key #获取字符串长度
incr key #当前key的value加1
decr key #当前key的value减一
incrby key 10 #当前key加10
decrby key 10 #当前key减10
getrange key 0 3 #字符串范围 (getrange key 0 -1 获取全部字符串)
setrange key 1 xx #替换指定位置开始的字符串
setex key second value    #(set with expire)设置过期时间
setnx key value   #(set if not with exists )不存在再设置 (分布式锁中常使用)
mset key1 v1 key2 v2  #批量设置
mget key1 key2 key3  #批量获取
msetnx key1 v1 key2 v2  #不存在再设置(批量 原子性操作  一起成功 一起失败)
getset key value #先获取原值再设置新值
2、List

redis中,可以将list用作栈、队列、阻塞队列的数据结构
所有list命令都是以l开头

lpush key v1 v2 ...  #将一个值或多个值插入列表的头部(左)
rpush key v1 v2 ...  #将一个值或多个值插入列表的尾部(右)
lrange key start end  #用过区间获取具体的值  (0 -1 区间获取全部值)
lpop key  #移除列表头部第一个值(左)
rpop key  #移除列表尾部第一个值(右)
lindex key index #通过索引获取值
llen key   #获取列表长度
lrem key count value  #移除list集合中指定个数的value  精确匹配
ltrim key start stop   #通过下标截取指定长度,list已经改变,只剩下截取后的元素
rpoplpush key otherkey  #移除列表中最后一个元素,并将它插入另一个列表头部
lset key index value  #将列表中指定下标的值替换为另外一个值,更新操作 (如果列表或索引不存在  会报错)
linsert key before v1 v2  #在v1前插入v2
linsert key after v1 v2  #在v1后插入v2

小结:

  • 他实际上是一个链表,before after left right 都可以插入值
  • 如果key不存在,创建新的链表
  • 如果key存在,新增内容
  • 如果移除了所有值,空链表,也代表不存在
  • 在两边插入或改动值,效率最高!中间元素,相对来说效率会低一点!
  • 消息排队 消息队列(Lpush Rpop) ,栈(Lpush Lpop)
3、Set

set中的值不能重复

sadd key value  #添加元素
smembers key   #查看指定set中所用元素
sismember key value  #判断某一个值在指定set中是否存在
scard key  #获取set中的内容元素个数
srem key value   #移除set中指定元素
srandmember key count  #随机选出指定个数的成员
spop key  #随机移除元素
smove oldkey  newkey member  #将一个指定的值,从一个set移动到另一个set
sdiff key...   #获取多个set差集
sinter key...  #获取多个set交集 (共同好友、共同关注)
sunion key...  #获取多个set并集

应用场景:微博,将用户所有关注放入一个set,粉丝放入一个set
-> 共同关注、二度好友、相互关注…

4、Hash

Map集合 key-(key-value)

hset key field value  #存入一个具体键值对
hget key field   #获取一个字段值
hmset key field value field1 value1 ...  #存入多个具体键值对
hmget key field field1 ...  #获取多个字段值
hgetall key    #获取全部数据
hdel key field  #删除hash指定的key字段,对应value也就没有了
hlen key     #获取hash中字段数量
hexists key field   #判断hash中某个字段是否存在
hkeys key    #获取hash中全部key
hvals key    #获取hash中全部value
hincrby key field 1  #hash中指定key的value加1
hdecrby key field 1  #hash中指定key的value减1
hsetnx key field value   #如果hash中指定key不存在则创建,存在则创建失败

hash应用场景: 变更的数据,比如用户信息,以及其他经常变动的信息;hash更加适合对象的存储,String更适合字符串的存储。

5、Zset

有序集合,在set的基础上增加了一个排序的值

zadd key score value  #添加元素
zrange key 0 1   #通过索引区间返回有序集合指定区间内的成员   (0 -1)返回全部
zrangebyscore key min max   #排序并返回 从小到大  例如:zrangebyscore key1 -inf +inf    (-inf:负无穷   +inf:正无穷 )
zrevrange key 0 -1     #排序并返回 从大到小
zrem key value   #移除指定元素
zcard key        #获取有序集合中的数量
zcount key start stop   #获取指定区间中的成员数量

Redis三种特殊数据类型

1、geospatial

地理位置 (定位、附近的人、打车距离…)
GEO底层就是Zset 可以用Zset命令操作Geo

#geoadd 添加地理位置
规则:两极无法直接加入,通常通过java一次性导入  有效经度:-180到180  有效纬度:-85.05112878到85.05112878
geoadd china:city 121.47 31.23 shanghai
geoadd china:city 106.50 29.53 chongqing  114.05 22.52 shenzhen 120.16 30.24 hangzhou 108.96 34.26 xian

#geopop 获取指定成员的经度和纬度
GEOPOS china:city chongqing beijin

#geodist 查看成员间的的直线距离
GEODIST china:city beijin shanghai km

#georadius 以给定经纬度为中心,找出某一半径内的元素
(附件的人)
GEORADIUS china:city 110 30 1000 km
GEORADIUS china:city 110 30 1000 km withdist withcoord count 2 (withdist 显示直线距离  withcoord 显示经纬度  count  显示几条)

#georadiusbymember 以给定成员为中心,找出某一半径内的元素
georadiusbymember china:city beijing 1000 km withdist withcoord count 2 (withdist 显示直线距离  withcoord 显示经纬度  count  显示几条)

#geohash 返回一个或多个位置元素的geohash表示  将二维的经纬度转换成一维的11位字符串 如果两个字符串越接近,则距离越近。

2、hyperloglog

基数 (不重复的元素个数) 可以接受误差 大概有0.81%的错误率
Redis hyperloglog 基数统计算法:
优点: 占用内存固定,存放2^64不同的元素的技术,只需要占用12KB内存
网页的UV (一个人访问一个网站多次,统计出还是一个人)
传统的方式:set集合保存用户id,统计set中用户数量。 但是相对消耗更多内存,我们的目的并不是保存用户id,目的只是计数。

PFadd key element  #创建一组元素
PFcount key   #统计元素基数
pfmerge key3 key1 key2   #合并两组key1 key2 => key3  并集
3、bitmaps

位存储
统计用户信息 活跃 不活跃 登录 未登录 打卡
两个状态的 都可以使用bitmaps
bitmaps位图数据结构,都是操作二进制位来进行记录的,非0即1

setbit key offset value  #设置位图
getbit key offset        #获取指定位图的值
bitcount key     #统计数量
###################################################
例如 一周打卡   0为打卡 1打卡
127.0.0.1:6379> SETBIT sign 0 1
(integer) 0
127.0.0.1:6379> SETBIT sign 1 0
(integer) 0
127.0.0.1:6379> SETBIT sign 2 1
(integer) 0
127.0.0.1:6379> SETBIT sign 3 0
(integer) 0
127.0.0.1:6379> SETBIT sign 4 0
(integer) 0
127.0.0.1:6379> SETBIT sign 5 0
(integer) 0
127.0.0.1:6379> SETBIT sign 6 1
(integer) 0


127.0.0.1:6379> GETBIT sign 0
(integer) 1

127.0.0.1:6379> BITCOUNT sign
(integer) 3

Redis事务

Redis单条命令时保证原子性的,但是事务不保证原子性
Redis事务的本质:一组命令的集合!一个事务中所有命令都会被序列化,在事务执行的过程中,会按照顺序执行。一次性、顺序性、排他性

Redis事务没有隔离级别的概念!
所有命令在事务中,并没有直接执行!只有在发起执行命令的时候才会执行!

Redis的事务:

  • 开启事务(multi)
  • 命令入队(…)
  • 执行事务(exec)\ 放弃事务(discard)
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> set k1 v1
QUEUED
127.0.0.1:6379(TX)> set k2 v2
QUEUED
127.0.0.1:6379(TX)> get k2
QUEUED
127.0.0.1:6379(TX)> set k3 v3
QUEUED
127.0.0.1:6379(TX)> EXEC
1) OK
2) OK
3) "v2"
4) OK

编译型异常(代码有问题,命令有错),事务中所有的命令都不会被执行!

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> set k1 v1
QUEUED
127.0.0.1:6379(TX)> get k1
QUEUED
127.0.0.1:6379(TX)> setget k2 v2  #错误命令
(error) ERR unknown command `setget`, with args beginning with: `k2`, `v2`,
127.0.0.1:6379(TX)> set k3 v3
QUEUED
127.0.0.1:6379(TX)> EXEC   #执行事务报错
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k1   #所有命令都没有被执行
(nil)
127.0.0.1:6379>

运行时异常 ,如果事务队列中存在语法性,那么执行命令的时候,其他命令是可以正常执行的,错误命令抛出异常。

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> set k1 "gg"
QUEUED
127.0.0.1:6379(TX)> incr k1  #虽然命令报错了,但是事务依旧执行成功了
QUEUED
127.0.0.1:6379(TX)> set k2 v2
QUEUED
127.0.0.1:6379(TX)> get k2
QUEUED
127.0.0.1:6379(TX)> EXEC
1) OK
2) (error) ERR value is not an integer or out of range
3) OK
4) "v2"
127.0.0.1:6379>

###Redis实现乐观锁
监控!Watch/unwatch(解锁,如果事务执行失败,先解锁,然后再次手动去监视)

  • 悲观锁:
    • 很悲观,什么时候都会出问题,无论做什么都会加锁!
  • 乐观锁
    • 很乐观,认为什么时候都不会出问题,不会加锁!更新数据的时候判断,在此期间是否有人修改过这个数据。
    • 获取version
    • 更新时比较version
127.0.0.1:6379> set k1 100
OK
127.0.0.1:6379> set k2 0
OK
127.0.0.1:6379> WATCH k1  #监控
OK
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> DECRBY k1 20
QUEUED
127.0.0.1:6379(TX)> INCRBY k2 20
QUEUED
127.0.0.1:6379(TX)> EXEC  #执行之前,另外一个线程修改了监控值,导致事务执行失败
(nil)
127.0.0.1:6379>

####################### 在上一个线程EXEC之前 执行以下命令 #########
127.0.0.1:6379> set k1 1000
OK

Jedis

什么是Jedis: Redis官方推荐的java连接开发工具!
1、导入jar包
2、连接数据库
3、操作命令
4、断开连接

Springboot整合

在springboot2.X之后,jedis被替换为了lettuce
jedis采用直连,多个线程操作不安全,如果想避免安全问题,使用jedis pool连接池! 更像BIO模式

lettuce:采用netty,实例可以在多个线程中共享,不存在线程不安全的问题,可以减少线程数量。 更像NIO模式
1、导入依赖

spring-boot-starter-data-redis

2、配置连接

自定义RedisTemplate

import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;
import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;

/**
 * Redis对json序列化处理
 */
@Configuration
public class RedisConfig_JacksonSerializer
{
	@Bean
	public RedisTemplate <String, Object> getRedisTemplate(RedisConnectionFactory connectionFactory)
	{
		RedisTemplate<String, Object> redisTemplate = new RedisTemplate<>();
		redisTemplate.setConnectionFactory(connectionFactory);

		// 序列化配置
		// 使用Jackson2JsonRedisSerialize替换默认序列化方式
		Jackson2JsonRedisSerializer<?> jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer<>(Object.class);
		//String的序列化
		StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
		ObjectMapper om = new ObjectMapper();
		om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
		//启用默认的类型
		om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
		//序列化类,对象映射设置
		jackson2JsonRedisSerializer.setObjectMapper(om);
		//key使用String序列化
		redisTemplate.setKeySerializer(stringRedisSerializer);
		//value使用jackson序列化
		redisTemplate.setValueSerializer(jackson2JsonRedisSerializer);
		//hash的key使用String序列化
		redisTemplate.setHashKeySerializer(stringRedisSerializer);
		//hash的value使用jackson序列化
		redisTemplate.setHashValueSerializer(jackson2JsonRedisSerializer);
		redisTemplate.afterPropertiesSet();
		return redisTemplate;
	}
}

RedisUtils
[RedisUtils-RedisTemplate][https://www.cnblogs.com/zhzhlong/p/11434284.html]
[https://www.cnblogs.com/zhzhlong/p/11434284.html]: https://www.cnblogs.com/zhzhlong/p/11434284.html “RedisUtils-RedisTemplate”
[Redis-StringRedisTemplate ][https://www.cnblogs.com/zeng1994/p/03303c805731afc9aa9c60dbbd32a323.html]
[https://www.cnblogs.com/zeng1994/p/03303c805731afc9aa9c60dbbd32a323.html]: https://www.cnblogs.com/zeng1994/p/03303c805731afc9aa9c60dbbd32a323.html "Redis-StringRedisTemplate "

Redis.conf 详解

单位 units

包含 includes

网络 network

bind 127.0.0.1 #绑定访问ip
protected-mode yes #保护模式 yes开启 no关闭
port 6379   #端口

通用 GENERAL

daemonize yes  #以守护进程的方式进行,默认是no
pidfile /var/run/redis_6379.pid  #如果以后台(守护进程)的方式运行,我们就需要指定一个pid文件!

日志

# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably)   (生产环境)
# warning (only very important / critical messages are logged)
loglevel notice  #日志级别
logfile ""     #日志文件名
databases 16   #数据库个数   默认16
always-show-logo yes   #是否总是展示logo

快照(snapshotting)
持久化,在规定时间内,执行了多少次操作,则会持久化到文件 .rdb .aof
redis是内存数据库,如果没有持久化,断电数据丢失

save 900 1   #如果900秒内,至少一个key进行了修改,那么就进行持久化操作
save 300 10   #如果300秒内,至少有10个key进行了修改,那么就进行持久化操作
save 60 10000  #如果60秒内,至少有10000个key进行了修改,那么就进行持久化操作

stop-writes-on-bgsave-error yes  #持久化如果出错,是否还需要继续工作

rdbcompression yes  #是否压缩.rdb文件(会消耗一定的cpu资源)
rdbchecksum yes    #保存.rdb文件的时候,进行错误检查校验
dir ./     #.rdb文件保存路径

复制(replication 主从复制)

安全(security)

requirepass root    #设置密码为root  默认是没有密码的

客户端限制(clients)

maxclients 10000   #最大连接数

内存设置(memory management)

maxmemory <bytes>  #最大内存容量
maxmemory-policy noeviction   #内存处理策略  内存达到上限之后的处理策略
	1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)
	2、allkeys-lru : 删除lru算法的key
	3、volatile-random:随机删除即将过期key
	4、allkeys-random:随机删除
	5、volatile-ttl : 删除即将过期的
	6、noeviction : 永不过期,返回错误

aof配置(append only mode)

appendonly no   #aof模式默认不开启,默认是使用rdb方式持久化的,在大部分情况下,rdb完全够用
appendfilename "appendonly.aof"  #.aof文件名

# appendfsync always  #每次修改都会执行同步,消耗性能
appendfsync everysec  #每秒执行一次同步,但是可能会丢失这1s的数据
# appendfsync no      #不执行同步,这个时候操作系统自己同步数据,速度最快

####重写规则####
no-appendfsync-on-rewrite no

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb  #如果aof文件大于64mb,太大了,fork一个新的进程来讲我们的文件进行重写。

Redis的持久化

RDB(Redis DataBase)

在指定时间间隔将内存中的数据集体快照写入磁盘,也就是行话讲的snapshot快照,它恢复时是将快照文件直接读到内存中。

Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入一个临时文件中,待持久化过程结束后,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何I/O操作的。这就确保了极高的性能。如果需要大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加高效。

优点:
1、适合大规模数据恢复。
2、对数据完整性要求不高。

缺点:
1、需要一定时间间隔进程操作,如果在时间间隔内redis宕机,最后一次持久化后的数据丢失。
2、fork子进程的时候,会占用一定的内存空间。

默认的持久化方式就是RDB方式,一般情况下不需要修改这个配置。默认保存的rdb文件为dump.rdb

触发规则:
1、save的规则满足的情况下,自动触发rdb规则
2、flushall命令执行后,自定触发rdb规则
3、退出redis时,自动触发rdb规则

恢复rdb文件:
1、只需要将rdb文件放在redis的启动目录就可以,redis启动的时候会自动检查dump.rdb文件,自动恢复rdb文件中的数据

127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/local/bin"  #如果这个目录下存在rdb文件,启动redis就是自动恢复其中数据
127.0.0.1:6379>

在主从复制中,rdb就是备用了!从机上面!

AOF(Append Only File)

将所有执行过的写命令都记录下来,history,在恢复的时候将记录的命令全部执行一遍。

以日志的形式来记录每个写操作,将Redis执行过的的所有指令记录下来(读操作不记录),只许追加文件不许改写文件,redis启动时,会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容,将写指令从前到后执行一次以完成数据的恢复工作。

aof默认是不开启的,需要手动开启(appendonly yes)。aof默认保存的是appendonly.aof文件。
重启,redis就可以生效了。

如果aof文件损坏或有错误,redis无法启动。我们需要修复aof文件。aof文件损坏修复:redis-check-aof --fix appendonly.aof

优点:

# appendfsync always  #每次修改都会执行同步,消耗性能
appendfsync everysec  #每秒执行一次同步,但是可能会丢失这1s的数据
# appendfsync no      #不执行同步,这个时候操作系统自己同步数据,速度最快

1、每次修改都会执行同步,消耗性能,文件数据完整性更好。
2、每秒执行一次同步,但是可能会丢失这1s的数据
3、不执行同步,这个时候操作系统自己同步数据,速度最快

缺点:
1、相对于数据文件来说,aof文件远远大于rdb文件,修复的速度也较慢。
2、aof运行效率也要比rdb慢,所以我们redis默认的配置就是rdb持久化。

扩展:
1、RDB 持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
4、同时开启两种持久化方式
在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
RDB 的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
5、性能建议
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留 save 900 1 这条规则。
如果Enable AOF ,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite 的最后将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
如果不Enable AOF ,仅靠 Master-Slave Repllcation 实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave 同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个 Master/Slave 中的 RDB文件,载入较新的那个,微博就是这种架构。

Redis发布订阅

Redis发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送信息,订阅者(sub)接收信息。

Redis客户端可以订阅任意数量的频道。

订阅/发布消息图:
第一个:消息发送者 第二个:频道 第三个:消息订阅者

下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:

当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:

命令
命令描述
PSUBSCRIBE pattern [pattern…]订阅一个或多个符合给定模式的频道。
PUNSUBSCRIBE pattern [pattern…]退订一个或多个符合给定模式的频道。
PUBSUB subcommand [argument[argument]]查看订阅与发布系统状态。
PUBLISH channel message向指定频道发布消息
SUBSCRIBE channel [channel…]订阅给定的一个或多个频道。
SUBSCRIBE channel [channel…]退订一个或多个频道
测试

订阅端

[root@localhost bin]# redis-cli -p 6379
127.0.0.1:6379> SUBSCRIBE cheng  #订阅一个频道
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "cheng"
3) (integer) 1
1) "message"  #消息
2) "cheng"   #接收频道
3) "111"   #接收消息

发送端

127.0.0.1:6379> PUBLISH cheng 111  #向指定频道部分消息
(integer) 1
原理

Redis是使用C实现的,通过分析 Redis 源码里的 pubsub.c 文件,了解发布和订阅机制的底层实现,籍此加深对 Redis 的理解。

Redis 通过 PUBLISH 、SUBSCRIBE 和 PSUBSCRIBE 等命令实现发布和订阅功能。

每个 Redis 服务器进程都维持着一个表示服务器状态的 redis.h/redisServer 结构, 结构的 pubsub_channels 属性是一个字典, 这个字典就用于保存订阅频道的信息,其中,字典的键为正在被订阅的频道, 而字典的值则是一个链表, 链表中保存了所有订阅这个频道的客户端。

客户端订阅,就被链接到对应频道的链表的尾部,退订则就是将客户端节点从链表中移除。

缺点
如果一个客户端订阅了频道,但自己读取消息的速度却不够快的话,那么不断积压的消息会使redis输出缓冲区的体积变得越来越大,这可能使得redis本身的速度变慢,甚至直接崩溃。
这和数据传输可靠性有关,如果在订阅方断线,那么他将会丢失所有在短线期间发布者发布的消息。

应用
消息订阅:公众号订阅,微博关注等等(起始更多是使用消息队列来进行实现)
多人在线聊天室。

稍微复杂的场景,我们就会使用消息中间件MQ处理。

Redis主从复制

概念

主从复制,是指将一台Redis服务器的数据,复制到其他Redis的服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能从主节点到从节点。Master以写为主,Slave以读为主。

主从复制,读写分离!80%的情况下都是进行读的操作!减缓服务器压力!

默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但是一个从节点有且只有一个主节点。

主从复制的作用主要包括

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
  • 负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是写少读多的场景下,通过多个节点分担负载,可以大大提高Redis服务器的并发量。
  • 高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。

一般来说呀,要将redis运用于工程项目之中,只使用一台Redis是万万不能的(宕机),原因如下:
1、从结构上,单个redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载呀,压力较大。
2、从容量上,单个redis服务器内存容量有限,就算一台redis服务器内存容量为256GB,也不能将所有内存用作Redis存储内存,一般来说,单台Redis最大使用内存不应该超过20GB。

环境配置

只需要配置从库,不需要配置主库,因为默认情况下,每台Redis服务器都是主节点。

127.0.0.1:6379> info replication  #查看当前库的信息
# Replication
role:master   #角色  master
connected_slaves:0   #从库个数
master_failover_state:no-failover
master_replid:7e06d29925419238aac9519cfa2025680a0dca55
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

修改3个配置文件:
1、端口
2、pid
3、log文件名字
4、rdb备份文件名字

一主二从

默认情况下,每台redis服务器都是主节点;我们只需要配置从节点就好了(认老大)。

方式一:命令配置 (临时)

############ 从节点1 ###########
127.0.0.1:6380> SLAVEOF 127.0.0.1 6379   #设置为主节点的从节点(认老大)
OK
127.0.0.1:6380> info replication
# Replication
role:slave   #当前角色为从节点
master_host:127.0.0.1     #主节点信息
master_port:6379
master_link_status:up
master_last_io_seconds_ago:6
master_sync_in_progress:0
slave_read_repl_offset:14
slave_repl_offset:14
slave_priority:100
slave_read_only:1
replica_announced:1
connected_slaves:0
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:14
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:14

############ 从节点2 ###########
127.0.0.1:6381> SLAVEOF 127.0.0.1 6379  #设置为主节点的从节点(认老大)
OK
127.0.0.1:6381> info replication
# Replication
role:slave   #当前角色为从节点
master_host:127.0.0.1   #主节点信息
master_port:6379
master_link_status:up
master_last_io_seconds_ago:1
master_sync_in_progress:0
slave_read_repl_offset:56
slave_repl_offset:56
slave_priority:100
slave_read_only:1
replica_announced:1
connected_slaves:0
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:56
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:43
repl_backlog_histlen:14

############ 主节点 ###########
127.0.0.1:6379> info replication
# Replication
role:master    #当前角色为主节点
connected_slaves:2     #从节点个数
slave0:ip=127.0.0.1,port=6380,state=online,offset=70,lag=0   #从节点信息
slave1:ip=127.0.0.1,port=6381,state=online,offset=70,lag=1   #从节点信息
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:70
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:70

方式二:配置文件 (永久)
修改配置文件,设置主节点信息

细节
主节点可以写,从节点不能写只能读!主节点中所有信息和数据都会自动被从节点保存!

############### 主节点(可以写) ###############
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> get k1
"v1"

############### 从节点(不可写,只能读) ###############
127.0.0.1:6380> keys *
1) "k1"
127.0.0.1:6380> get k1
"v1"
127.0.0.1:6380> set k2 v2
(error) READONLY You can't write against a read only replica.

注意:
1、主节点宕机,从节点依旧以从节点的角色连接主节点,没有写的权限;当主节点重新连接,从节点依旧可以直接获取到主节点写的信息!
2、如果是用命令行配置的从节点,从节点重启,主从配置失效!但是当重新配置成为从节点,立刻就会从主节点中获取值!
3、如果是配置文件配置的从节点,从节点宕机,主节点进行写操作,当从节点重新连接时,会从主节点中获取值,之前主节点写操作的信息依旧在此从节点存在!

复制原理

Slave启动成功连接到Master后会发送一个sync同步命令!
Master接到同步命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕后,Master将传送整个数据文件到Slave,并完成一次同步!

全量复制:Slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。

增量复制:Master继续将新的所有收集到的修改命令依次传给Slave,完成同步。

但是只要重新连接Master,一次完全同步(全量复制)将自动执行。数据一定会在Slave中看到。

宕机后手动配置主节点

链路模型:M-S(M)-S ,当第一个主节点存活时,S(M)节点为从节点,无法写操作!

当第一个主节点宕机后,可以手动将节点设置为主节点:

slaveof no one #使自己变成主节点

如果第一个主节点恢复,需要重新配置。

哨兵模式

(自动选举老大的模式)

概述

主从切换技术的方法是:当主节点宕机后,需要手动把一台从节点切换为主节点,这就需要人工干预,费时费力,还会造成一段时间内的服务不可用。这不是一种推荐的方式,更多的时候,我们优先考虑哨兵模式。Redis从2.8开始,正式提供了Sentinel(哨兵)架构来解决这个问题。

能够后台监控主节点是否故障,如果故障了根据投票数自动将从节点转换为主节点。

哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它能独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例

这里哨兵的两个作用:

  • 通过发送命令,让Redis服务器返回监控其运行的状态,包括主服务器和从服务器。
  • 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他从服务器,修改配置文件,让它们切换主节点。

然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行相互监控,这样就形成了多哨兵模式。

假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover(故障转移)过程,仅仅是哨兵1主观认为主服务器不可用,这个现象称为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover(故障转移)操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

测试

1、配置哨兵配置文件 sentinel.conf

# sentinel monitor 被监控的名称 host port 1
sentinel monitor headredis 127.0.0.1 6379 1

后面这个数字1,代表主机挂了,slave投票看让谁接替成为主机,票数最多的,就会成为主机。

2、启动哨兵

[root@localhost bin]# redis-sentinel ./redis-config/sentinel.conf   #启动哨兵
1553:X 19 Nov 2021 00:37:09.841 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
1553:X 19 Nov 2021 00:37:09.841 # Redis version=6.2.6, bits=64, commit=00000000, modified=0, pid=1553, just started
1553:X 19 Nov 2021 00:37:09.841 # Configuration loaded
1553:X 19 Nov 2021 00:37:09.842 * Increased maximum number of open files to 10032 (it was originally set to 1024).
1553:X 19 Nov 2021 00:37:09.842 * monotonic clock: POSIX clock_gettime
                _._
           _.-``__ ''-._
      _.-``    `.  `_.  ''-._           Redis 6.2.6 (00000000/0) 64 bit
  .-`` .-```.  ```\/    _.,_ ''-._
 (    '      ,       .-`  | `,    )     Running in sentinel mode
 |`-._`-...-` __...-.``-._|'` _.-'|     Port: 26379
 |    `-._   `._    /     _.-'    |     PID: 1553
  `-._    `-._  `-./  _.-'    _.-'
 |`-._`-._    `-.__.-'    _.-'_.-'|
 |    `-._`-._        _.-'_.-'    |           https://redis.io
  `-._    `-._`-.__.-'_.-'    _.-'
 |`-._`-._    `-.__.-'    _.-'_.-'|
 |    `-._`-._        _.-'_.-'    |
  `-._    `-._`-.__.-'_.-'    _.-'
      `-._    `-.__.-'    _.-'
          `-._        _.-'
              `-.__.-'

1553:X 19 Nov 2021 00:37:09.844 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
1553:X 19 Nov 2021 00:37:09.847 # Sentinel ID is bed6d5d9ca158d07fc1cd33249755f0242c635dc
1553:X 19 Nov 2021 00:37:09.847 # +monitor master headredis 127.0.0.1 6379 quorum 1   #主节点信息
1553:X 19 Nov 2021 00:37:50.059 * +slave slave 127.0.0.1:6380 127.0.0.1 6380 @ headredis 127.0.0.1 6379  #从节点1信息
1553:X 19 Nov 2021 00:38:00.148 * +slave slave 127.0.0.1:6381 127.0.0.1 6381 @ headredis 127.0.0.1 6379  #从节点2信息

如果master节点断开了,这个时候就会从从机中随机选择一个服务器作为主机!(投票算法)

127.0.0.1:6379> SHUTDOWN
not connected> exit

哨兵:

选举后的主节点:

选举后的从节点:

当之前宕机的主节点重新连接,之前宕机的主节点会自动被哨兵转换成为新选举的主节点的从节点,这就是哨兵模式的规则

哨兵模式

优点:
1、哨兵集群,基于主从复制模式,所有的主从配置的优点,它都有。
2、主从可以切换,故障可以转移,系统的可用性更好。
3、哨兵模式就是主从模式的升级,手动到自动,更加健壮!

缺点:
1、Redis不好在线扩容,集群容量一旦达到上限,在线扩容就十分麻烦!
2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!

哨兵模式的全部配置

完整的哨兵模式配置文件 sentinel.conf

# Example sentinel.conf
 
# 哨兵sentinel实例运行的端口 默认26379
port 26379
 
# 哨兵sentinel的工作目录
dir /tmp
 
# 哨兵sentinel监控的redis主节点的 ip port 
# master-name  可以自己命名的主节点名字 只能由字母A-z、数字0-9 、这三个字符".-_"组成。
# quorum 当这些quorum个数sentinel哨兵认为master主节点失联 那么这时 客观上认为主节点失联了
# sentinel monitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 6379 1
 
# 当在Redis实例中开启了requirepass foobared 授权密码 这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵sentinel 连接主从的密码 注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd
 
 
# 指定多少毫秒之后 主节点没有应答哨兵sentinel 此时 哨兵主观上认为主节点下线 默认30秒
# sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000
 
# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行 同步,
这个数字越小,完成failover所需的时间就越长,
但是如果这个数字越大,就意味着越 多的slave因为replication而不可用。
可以通过将这个值设为 1 来保证每次只有一个slave 处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1
 
 
 
# 故障转移的超时时间 failover-timeout 可以用在以下这些方面: 
#1. 同一个sentinel对同一个master两次failover之间的间隔时间。
#2. 当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
#3.当想要取消一个正在进行的failover所需要的时间。  
#4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000
 
# SCRIPTS EXECUTION
 
#配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
#对于脚本的运行结果有以下规则:
#若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
#若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
#如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
#一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
 
#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),将会去调用这个脚本,
#这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数,
#一个是事件的类型,
#一个是事件的描述。
#如果sentinel.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
#通知脚本
# sentinel notification-script <master-name> <script-path>
  sentinel notification-script mymaster /var/redis/notify.sh
 
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。 
# 参数 from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh

Redis的缓存穿透与雪崩(面试高频,工作常用~)

服务的高可用问题

Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据一致性问题。从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。

另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。

缓存穿透

概念

缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中,于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就出现了缓存穿透。

解决方案

1、布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;

2、缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;

但是这种方法存在两个问题:

  • 如果空值能被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;
  • 即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对需要保持数据一致性的业务会有影响。
缓存击穿

概念

这里需要注意和缓存穿透的区别。缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在屏障上凿开了一个洞。

当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导致数据库压力瞬间变大。

解决方案

1、设置热点数据不过期
从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。

2、加互斥锁
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁考验很大。

缓存雪崩

概念

缓存雪崩,是指在某一时间段,缓存集中过期失效。Redis宕机!

产生雪崩的原因之一,比如零点抢购,商品时间集中放入缓存,假设缓存一小时。那么1点的时候,大量缓存集体过期,对于这批商品的访问查询,都落到了数据库。对于数据库而言,就会产生周期性的压力波峰,于是所有请求都会到达存储层,存储层调用会暴增,造成存储层也会挂掉的情况。

其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因此自然形成的缓存雪崩,一定是在某一时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。

解决方案

1、Redis高可用
这个思想的含义是,既然Redis也有可能挂掉,那多增加几台redis服务器,这样一台挂了还有其他的可以继续工作,其实就是搭建集群。

2、限流降级
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读取数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。

3、数据预热
数据加热的含义就是在正式部署之前,先把可能的数据先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间尽量均匀。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

张矜持

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值