Redis
redis-benchmark性能测试
Redis入门
概述
redis是什么:Redis(Remote Dictionary Server)远程服务字典,开源的使用ANSI C语言编写,支持网络,基于内存,持久化的日志型,Key-Value数据库,并提供多种语言的API。免费开源,当下最热门的NoSql技术之一,也被称为结构化数据库
redis能干嘛(读的速度11w/1s,写的速度8w/s)
1.内存存储、持久化,内存中是断电即失的,所以说持久化很重要(rdb、aof)
2.效率高,可以用于告诉缓存
3.发布订阅系统(简单消息队列)
4.地图信息分析
5.计时器、计数器(浏览量)
6…
redis特性
开源,支持多种数据类型,支持持久化,提供多种语言API
1.多样的数据类型
2.持久化
3.集群
4.事务
…
学习中需要用到的东西
1.官网:https://redis.io/
2.中文网:http://redis.cn/
3.下载地址:通过官网下载即可,(windows在github上下载),推荐linux服务器上搭建
默认端口号6379
4.启动服务redis-server.exe
5.启动客户端连接redis-cli.exe
Redis是单线程
Redis是基于内存操作,CPU不是Redis性能瓶颈,Redis的瓶颈是根据机器的内存和网络带宽
Redis是C语言写的,官方提供的数据为10000+的QPS,完全不比同样是使用key-value的Memecache差
Redis为什么单线程还这么快
误区1:高性能的服务器一定是多线程的
误区2:多线程(CPU上下文切换)一定比单线程效率高
核心:redis是将所有的数据全部放在内存中的,所以说使用单线程去操作效率是最高的,多线程(CPU上下文切换:耗时的操作),对于内存系统来说,如果没有上下文切换效率就是最高的!多次读写都是在一个CPU的,在内存情况下,这个是最佳方案。
NoSQL的四大分类
KV键值对:
新浪:Redis
美团:Redis+Tair
阿里,百度:Redis+memecache
文档型数据库(bson格式和json一样):
MongoDB(一般必须要掌握)是一个基于分布式文件存储的数据库,C++编写,主要用来处理大量文档
MongoDB是一个介于关系型数据库和非关系型数据库中中间的产品,MongoDB是非关系型数据库中功能最丰富,最像关系型数据库的
ConthDB
列存储数据库
HBase
分布式文件系统
图关系型数据库
它不是存图形,放的是关系,比如:朋友圈社交网络,广告推荐
Neo4j,InfoGrid
五大数据类型
String List Set Hash Zset
String(字符串)
常用命令
FLUSHdb 清空数据库
keys * 查看当前所有key的名字
EXISTS key 是否存在key
APPEND key “hello” 往key后面追加hello
STRLEN key 获取key字符串的长度
字符串范围 range(GETRANGE获取,SETRANGE替换)
setex:设置过期时间
setnx:不存在即创建
clear:清空
127.0.0.1:6379>set key1 v1 # 设置值
OK
127.0.0.1:6379>get key1 # 获取值
"V1"
127.0.0.1:6379>set key * # 获取所有key
1)"key1"
127.0.0.1:6379>EXISTS key1 # 判断某一key是否存在
(integer)1
127.0.0.1:6379>APPEND key1 "hello" # 追加字符串
(integer)7
127.0.0.1:6379>get key1
"v1hello"
127.0.0.1:6379>STRLEN key1 # 获取字符串的长度
(integer)7
127.0.0.1:6379>APPEND name "Arum" # 如果当前key不存在就详单与setkey
(integer)4
127.0.0.1:6379>key *
1)"name"
2)"key1"
127.0.0.1:6379>get key
127.0.0.1:6379>set views 0 # 初始值0
OK
127.0.0.1:6379>get views
"0"
127.0.0.1:6379>incr views # incr:自增1
(integer)1
127.0.0.1:6379>incr views
(integer)2
127.0.0.1:6379>get views
"2"
127.0.0.1:6379>decr views # decr:自减1
(integer)1
127.0.0.1:6379>get views
"1"
127.0.0.1:6379>INCRBY views 10 # INCRBY:可以设置步长,设置增长量
"11"
127.0.0.1:6379>DECRBY views 5 # DECRBY:设置减少量
"6"
# 字符串范围 range
# GETRANGE获取
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379>set key1 "hello,Arum" # 设置key1的值
OK
127.0.0.1:6379>get key1
"hello,Arum"
127.0.0.1:6379>GETRANGE key1 0 3 # GETRANGE截取字符串,截取区间为[0,3]的字符串
"hell"
127.0.0.1:6379>GETRANGE key1 0 -1 # -1截取全部的字符串和get key一样的
"hello,Arum"
# SETRANGE替换
127.0.0.1:6379>set key2 Aurora
OK
127.0.0.1:6379>get key2
"Aurora"
127.0.0.1:6379>SETRANGE key2 1 xx # 替换指定位置开始的字符串
(integer)6
127.0.0.1:6379>get key2
"Axxora"
# setex(set with expire) : 设置过期时间
127.0.0.1:6379>setex key3 30 "arum" # 设置key3的值为arum设置30秒后过期
OK
127.0.0.1:6379>ttl key3 # ttl查看过期时间
(integer)27
127.0.0.1:6379>get key3
"arum"
# setnx(set if not exist) : 不存在再设置(在分布式锁中会常使用)
127.0.0.1:6379>setnx mykey "Redis" # 如果mykey不存在,创建mykey,如果mykey存在则创建失败
(integer)1
127.0.0.1:6379>keys *
1)"key2"
2)"mykey"
3)"key1"
127.0.0.1:6379>ttl key3
(integer)-2
127.0.0.1:6379>setnx mykey "MongoDB"
(integer)0
127.0.0.1:6379>get mykey
"Redis"
127.0.0.1:6379>mset k1 v1 k2 v2 k3 v3 # 同时设置多个值
OK
127.0.0.1:6379>keys *
1)"k1"
2)"k2"
3)"k3"
127.0.0.1:6379>mget k1 k2 k3 # 同时获取多个值
1)"v1"
2)"v2"
3)"v3"
127.0.0.1:6379>msetnx k1 v1 k4 v4 # 如果不存在创建多个值(存在原子性,要么同成功要么同失败)
(integer)0
127.0.0.1:6379>get k4
(nil)
# 对象
set user:1{name:arum,age:3} # 设置一个user:1对象 值为Json字符串来保存一个对象
# 这里的key是一个巧妙的设计:user:{id}:{filed},如此设计在redis是完全ok的
127.0.0.1:6379>mset user:1:name arum user:1:age 3
OK
127.0.0.1:6379>mget user:1:name user:1:age
1)"arum"
2)"3"
# getset 先get再set
127.0.0.1:6379>getset db redis # 如果不存在值,则返回nil
(nil)
127.0.0.1:6379>get db
"redis"
127.0.0.1:6379>getset db mongodb # 如果存在值,获取原来的值并设置新的值
"redis"
127.0.0.1:6379>get db
"mongodb"
数据结构是相通的
String类似的使用场景:value除了是我们普通的字符串外 还可以是数字
计数器
统计多单位的数量
List(列表)
基本的数据类型,列表。在redis里面我们可以把list玩成,栈,队列,阻塞队列
所有list命令都是用l开头
# PUSH 插入 --- LPUSH左边插入 RPUSH 右边插入
127.0.0.1:6379>LPUSH list one # 将一个值或者多个值,插入到队列头部(左)
(integer)1
127.0.0.1:6379>LPUSH list two
(integer)2
127.0.0.1:6379>LPUSH list three
(integer)3
127.0.0.1:6379>LRANGE list 0 -1 # 获取list中的值
1)"three"
2)"two"
3)"one"
127.0.0.1:6379>LRANGE list 0 1
1)"three"
2)"two"
127.0.0.1:6379>RPUSH list five # 将一个值或者多个值,插入到队列尾部(右)
(integer)4
127.0.0.1:6379>LRANGE list 0 -1
1)"three"
2)"two"
3)"one"
4)"five"
127.0.0.1:6379>LRANGE list 0 1
1)"three"
2)"two"
# POP 移除 --- LPOP左边插入 RPOP 右边插入
127.0.0.1:6379>LRANGE list 0 -1
1)"three"
2)"two"
3)"one"
4)"five"
127.0.0.1:6379>Lpop list # 移除list的第一个元素
"three"
127.0.0.1:6379>Rpop list # 移除list的最后一个元素
"five"
127.0.0.1:6379>LRANGE list 0 -1
1)"two"
2)"one"
# Lindex
127.0.0.1:6379>LRANGE list 0 -1
1)"two"
2)"one"
127.0.0.1:6379>Lindex list 1 # 通过下表获得list中某一个值
"one"
127.0.0.1:6379>Lindex list 0
"two"
# Llen
127.0.0.1:6379>Lpush list one
(integer)1
127.0.0.1:6379>Lpush list two
(integer)2
127.0.0.1:6379>Lpush list three
(integer)3
127.0.0.1:6379>Llen list # 返回列表长度
(integer)3
#移除指定的值 Lrem
127.0.0.1:6379>Lpush list three
1)"three"
2)"three"
3)"two"
4)"one"
127.0.0.1:6379>Lrem list 1 one # 移除list中的one从上到下取一个,精确匹配
(integer)1
127.0.0.1:6379>Lrange list 0 -1
1)"three"
2)"three"
3)"two"
127.0.0.1:6379>Lrem list 1 three
(integer)1
127.0.0.1:6379>Lrange list 0 -1
1)"three"
2)"two"
127.0.0.1:6379>Lpush list three
(integer)3
127.0.0.1:6379>Lrem list 2 three
(integer)2
127.0.0.1:6379>Lrange list 0 -1
1)"two"
# trim 修剪:list截断
127.0.0.1:6379>flushdb # 清空
OK
127.0.0.1:6379>keys * # 查看
(empty list or set)
127.0.0.1:6379>Rpush mylist "hello1"
(integer)1
127.0.0.1:6379>Rpush mylist "hello2"
(integer)2
127.0.0.1:6379>Rpush mylist "hello3"
(integer)3
127.0.0.1:6379>Rpush mylist "hello4"
(integer)4
127.0.0.1:6379>ltrim mylist 1 2 # 通过下表截取指定的长度,这个list已经被改变,只剩截取元素
OK
127.0.0.1:6379>Lrange mylist 0 -1
1)"hello2"
2)"hello3"
# rpoplpush 移除列表的最后一个元素并移动到新的列表中
127.0.0.1:6379>flushdb # 清空
OK
127.0.0.1:6379>keys * # 查看
(empty list or set)
127.0.0.1:6379>Rpush mylist "hello1"
(integer)1
127.0.0.1:6379>Rpush mylist "hello2"
(integer)2
127.0.0.1:6379>Rpush mylist "hello3"
(integer)3
127.0.0.1:6379>rpoplpush mylist myohtherlist#移除mylist中最后一个元素 添加到myohtherlist中
"hello3"
127.0.0.1:6379>lrange mylist 0 -1 # 查看原来列表
1)"hello1"
2)"hello2"
127.0.0.1:6379>lrange myotherlist 0 -1 # 查看目标列表中,确实存在改值
1)"hello3"
# lset 将列表中指定下标的值替换为另外一个值(详单与一个更新操作)
127.0.0.1:6379>flushdb # 清空
OK
127.0.0.1:6379>keys * # 查看
(empty list or set)
127.0.0.1:6379>EXISTS list # 判断list列表是否存在
(integer)0
127.0.0.1:6379>lset list 0 item # 如果不存在列表我们给指定下标赋值
(error)ERR no such key # 则报错
127.0.0.1:6379>lpush list value1
(integer)1
127.0.0.1:6379>lrange lsit 0 0
1)"value1"
127.0.0.1:6379>lset list 0 item # 如果存在,则更新当前下表的值
OK
127.0.0.1:6379>lrange lsit 0 0
1)"item"
127.0.0.1:6379>lset list 1 other # 如果不存在该下表,则报错
(error)ERR no such key
# LINSERT 将某个具体的value插入到列表中某个元素的前面(before)或者后面(after)
127.0.0.1:6379>flushdb # 清空
OK
127.0.0.1:6379>keys * # 查看
(empty list or set)
127.0.0.1:6379>Rpush mylist "hello"
(integer)1
127.0.0.1:6379>Rpush mylist "world"
(integer)2
127.0.0.1:6379>Linsert before "world" "other" # 将"other"插入到"world"前
(integer)3
127.0.0.1:6379>lrange mylist 0 -1
1)"hello"
2)"other"
3)"world"
127.0.0.1:6379>linsert mylist after "world" "new" # 将"new"插入到"world"后
(integer)4
127.0.0.1:6379>lrange mylist 0 -1
1)"hello"
2)"other"
3)"world"
4)"new"
小结:1.它实际上是一个链表,before Node after ,left,right都可以插入值
2.如果key不存在,创建新的链表
3.如果key存在,新增内容
4.如果移除了所有的值,空链表,也代表不存在
5.在两边插入或改动值,效率最高。如果操作中间元素,相对来说效率会低一点
消息排队 消息队列(LPUSH RPOP,左边过去右边出来) 栈(LPUSH LPOP,左边过去左边出来)
Set(集合)
set:无序不重复集合
所有set命令都是用s开头
# sadd:添加元素
# SMEMBERS:查看指定set的所有值
# SISMEMBER:判断某一个值是不是在set中
127.0.0.1:6379>sadd myset "hello" # sadd,set集合中添加元素
(integer)1
127.0.0.1:6379>sadd myset "arum"
(integer)1
127.0.0.1:6379>sadd myset "loveaurora"
(integer)1
127.0.0.1:6379>SMEMBERS myset # SMEMBERS,查看指定set的所有值
1)"hello"
2)"arum"
3)"loveaurora"
127.0.0.1:6379>SISMEMBER myset hello # SISMEMBER,判断某一个值是不是在set中
(integer)1 # 1表示存在
127.0.0.1:6379>SMENBERS myset world
(integer)0 # 0表示不存在
#scard:获取集合中元素个数
#srem:移除set中指定元素
127.0.0.1:6379>scard myset # 获取myset集合中元素个数
(integer)3
127.0.0.1:6379>srem myset hello # srem:移除set中指定元素
(integer)1
127.0.0.1:6379>scard myset
(integer)2
127.0.0.1:6379>SMEMBERS myset
1)"arum"
2)"loveaurora"
#Srandmember:随机抽选出一个元素
127.0.0.1:6379>SRANDMEMBER myset # 随机抽取1个元素
127.0.0.1:6379>SRANDMEMBER myset 2 # 随机抽取2个元素
# spop随机删除指定集合元素
127.0.0.1:6379> spop myset
"A"
127.0.0.1:6379> smembers myset
1) "C"
2) "D"
3) "B"
# smove:将一个指定的值移动到另外一个set集合中
127.0.0.1:6379> sadd myset A
(integer) 1
127.0.0.1:6379> sadd myset b
(integer) 1
127.0.0.1:6379> sadd myset c
(integer) 1
127.0.0.1:6379> sadd myset2 A2
(integer) 1
127.0.0.1:6379> sadd myset2 B2
(integer) 1
127.0.0.1:6379> smove myset myset2 A # smove:将myset中的A移动到myset2中
(integer) 1
127.0.0.1:6379> smembers myset
1) "c"
2) "b"
127.0.0.1:6379> smembers myset2
1) "B2"
2) "A"
3) "A2"
微博,B站,抖音,QQ等(共同关注,共同好友)
# 差集:sdiff 得到右边集合没有的元素
127.0.0.1:6379> sadd key1 a
(integer) 1
127.0.0.1:6379> sadd key1 b
(integer) 1
127.0.0.1:6379> sadd key1 c
(integer) 1
127.0.0.1:6379> sadd key2 b
(integer) 1
127.0.0.1:6379> sadd key2 c
(integer) 1
127.0.0.1:6379> sadd key2 d
(integer) 1
127.0.0.1:6379> SDIFF key1 key2
1) "a"
127.0.0.1:6379> SDIFF key2 key1
1) "d"
# 交集:sinter
127.0.0.1:6379> sinter key1 key2
1) "c"
2) "b"
# 并集:SUNION
127.0.0.1:6379> sunion key1 key2
1) "c"
2) "d"
3) "a"
4) "b"
例子:微博,A用户将所有关注的人放在一个set集合中!将粉丝也放在一个集合中
共同关注,共同好友,二度好友(六度分隔理论,你和任何一个陌生人之间所间隔的人不会超五个,也就是说,最多通过六个人你就能够认识任何一个陌生人)
Hash(哈希)
Map集合,key-map,存的值也是键值对,只是这时候的value也是个map集合!本质和String类型没太大区别,还是一个简单的集合
同理,H开头的命令都是hash
127.0.0.1:6379> hset myhash arum1 a # set一个具体 key-value
(integer) 1
127.0.0.1:6379> hget myhash arum1 # get一个字段值
"a"
127.0.0.1:6379> hmset myhash arum1 b arum2 c # set多个key-value
OK
127.0.0.1:6379> hmget myhash arum1 arum2 # get多个key-value
1) "b"
2) "c"
127.0.0.1:6379> hgetall myhash # 获取全部的数据
1) "arum1"
2) "b"
3) "arum2"
4) "c"
127.0.0.1:6379> hdel myhash arum1 # 删除hash对应的key字段,对应的value值也消失
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "arum2"
2) "c"
# hlen:获取hash长度
127.0.0.1:6379> hset myhash vkey1 vvalue1
(integer) 1
127.0.0.1:6379> hset myhash vkey2 vvalue2
(integer) 1
127.0.0.1:6379> hset myhash vkey3 vvalue3
(integer) 1
127.0.0.1:6379> hset myhash vkey4 vvalue4
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "vkey1"
2) "vvalue1"
3) "vkey2"
4) "vvalue2"
5) "vkey3"
6) "vvalue3"
7) "vkey4"
8) "vvalue4"
127.0.0.1:6379> hlen myhash # 获取hash表的字段数量
(integer) 4
# hexists:判断指定hash是否存在
127.0.0.1:6379> hexists myhash vkey1
(integer) 1
127.0.0.1:6379> hexists myhash vkey5 # hexists:判断指定hash是否存在
(integer) 0
# 只获得所有hash中的key:hkeys myhash
# 只获得所有hash中的value:hvals myhash
127.0.0.1:6379> hkeys myhash
1) "vkey1"
2) "vkey2"
3) "vkey3"
4) "vkey4"
127.0.0.1:6379> hvals myhash
1) "vvalue1"
2) "vvalue2"
3) "vvalue3"
4) "vvalue4"
# hincrby:增量
# hsetnx:如果不存在则可设置,如果存在则不可设置
127.0.0.1:6379> hset myhash vkey5 5
(integer) 1
127.0.0.1:6379> hincrby myhash vkey5 1 # hincrby:增量
(integer) 6
127.0.0.1:6379> hincrby myhash vkey5 -1
(integer) 5
127.0.0.1:6379> hsetnx myhash vkey6 vvalue6 # hsetnx:如果不存在则可设置
(integer) 1
127.0.0.1:6379> hsetnx myhash vkey6 vvalue7 # hsetnx:如果存在则不可设置
(integer) 0
hash存变更的数据user age name,尤其是用户信息之类的,经常变更的信息!hash更适合对象的存储,String更加适合字符串存储
127.0.0.1:6379> hset user:1 name arum
(integer) 1
127.0.0.1:6379> hget user:1 name
"arum"
Zset(有序集合)
在set的基础上增加了一个值,set k1 v1 zset k1 score1 v1
# 添加一个/多个值
127.0.0.1:6379> zadd myset 1 one
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three
(integer) 2
127.0.0.1:6379> zrange myset 0 -1
1) "one"
2) "two"
3) "three"
# 排序如何实现,按照salary从小到大排序:zrangebyscore salary min max(范围[min,max])
127.0.0.1:6379> zadd salary 2500 A
(integer) 1
127.0.0.1:6379> zadd salary 5000 B
(integer) 1
127.0.0.1:6379> zadd salary 1000 C
(integer) 1
127.0.0.1:6379> zrevrange salary 0 -1 # 从大到小排序
1) "B"
2) "A"
127.0.0.1:6379> zrangebyscore salary -inf +inf # -inf负无穷,+inf正无穷
1) "C"
2) "A"
3) "B"
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores # 获取排行以及具体信息
1) "C"
2) "1000"
3) "A"
4) "2500"
5) "B"
6) "5000"
# zrem:移除有序集合中指定元素
127.0.0.1:6379> zrange salary 0 -1
1) "C"
2) "A"
3) "B"
127.0.0.1:6379> zrem salary C
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "A"
2) "B"
# zcard:获取有序集合中的个数
127.0.0.1:6379> zcard salary
(integer) 2
# 获取指定区间成员数量:zcount
127.0.0.1:6379> zadd myset 1 hello
(integer) 1
127.0.0.1:6379> zadd myset 2 world 3 arum
(integer) 2
127.0.0.1:6379> zcount myset 1 3
(integer) 3
127.0.0.1:6379> zcount myset 1 2
(integer) 2
小结:加了个标志位,没啥特殊
案例思路:set排序 存储班级成绩表,工资表排序
普通消息:1 ;重要消息:2; (加权重进行判断)
排行榜应用实现,
三种特殊数据类型
Geospatial地理位置
# geotadd:添加地理位置
# 规测:两级无法添加,我们一般会下载城市数据,直接通过java程序一次性导入
# (error) ERR invalid longitude,latitude pair 39.900000,166.400000
# 参数 key 值(纬度、经度、名称)
127.0.0.1:6379> geoadd china:city 166.40 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chonqing 114.05 22.52 shengzheng
(integer) 2
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou 108.96 34.26 xian
(integer) 2
# geopos:获取指定城市的经度和纬度(获得当前定位)
127.0.0.1:6379> geopos china:city beijing
1) 1) "166.40000134706497192"
2) "39.90000009167092543"
127.0.0.1:6379> geopos china:city xian
1) 1) "108.96000176668167114"
2) "34.25999964418929977"
127.0.0.1:6379> geopos china:city chonqing shengzhen
1) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "114.04999762773513794"
2) "22.5200000879503861"
位置共享,两人位置之间的距离
# geodist
# m 米
# km 千米
# mi 英里
# ft 英尺
127.0.0.1:6379> geodist china:city beijing shanghai
"4132638.7228"
127.0.0.1:6379> geodist china:city beijing shanghai km
"4132.6387"
我附近的人(获得所有附件的人的地址(手机定位))通过半径来查询
# 以(110,30)为中心获取半径为1000km内的坐标
127.0.0.1:6379> georadius china:city 110 30 1000 km
1) "chonqing"
2) "xian"
3) "shengzhen"
4) "hangzhou"
# 以(110,30)为中心获取半径为500km内的坐标
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chonqing"
2) "xian"
# 以(110,30)为中心获取半径为500km内的坐标的经度
127.0.0.1:6379> georadius china:city 110 30 500 km withdist
1) 1) "chonqing"
2) "341.9374"
2) 1) "xian"
2) "483.8340"
# 以(110,30)为中心获取半径为500km内的坐标的经度,纬度
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord
1) 1) "chonqing"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) "483.8340"
3) 1) "108.96000176668167114"
2) "34.25999964418929977"
# 以(110,30)为中心获取半径为500km内的一个坐标的经度,纬度
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1
1) 1) "chonqing"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
# 以(110,30)为中心获取半径为500km内的两个坐标的经度,纬度
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 2
1) 1) "chonqing"
2) "341.9374"
3) 1) "106.49999767541885376"
2) "29.52999957900659211"
2) 1) "xian"
2) "483.8340"
3) 1) "108.96000176668167114"
2) "34.25999964418929977"
GEORADIUSBYMEMBER
# georadiusbymember:找出位于指定元素周围的其它元素
127.0.0.1:6379> georadiusbymember china:city shanghai 2000 km
1) "chonqing"
2) "xian"
3) "shengzhen"
4) "hangzhou"
5) "shanghai"
127.0.0.1:6379> georadiusbymember china:city shanghai 500 km
1) "hangzhou"
2) "shanghai"
GEOHASH命令 返回一个或多个元素的Geohash表示,该命令将返回11个字符的Geohash字符串
# 将二维的经纬度转换为一维的字符串,如果两个字符串越接近,那么则距离越近(很少使用)
127.0.0.1:6379> geohash china:city shanghai chonqing
1) "wtw3sj5zbj0"
2) "wm5xzrybty0"
GEO 底层实现原理其实就是ZSET!我们可以使用ZSET命令操作GEO
127.0.0.1:6379> ZRANGE china:city 0 -1 # 查看地图中全部元素
1) "chonqing"
2) "xian"
3) "shengzhen"
4) "hangzhou"
5) "shanghai"
6) "beijing"
127.0.0.1:6379> ZREM china:city beijing # 移除指定元素
(integer) 1
127.0.0.1:6379> ZRANGE china:city 0 -1
1) "chonqing"
2) "xian"
3) "shengzhen"
4) "hangzhou"
5) "shanghai"
Hyperloglog基数统计
什么是基数,不重复的元素,可以接受误差
简介
Redis2.8.9版本更新了Hyperloglog数据结构
Redis Hyperloglog 基数统计的算法
优点:占用内存是固定的,2^64不同元素的基数,只需要废12kb内存!如果要从内存角度来比较的话,Hyperloglog首选!注:0.81%错误率
网页的UV(一个人访问一个网站多次,但是还是算一个人)
传统的方式,set保存用户的id,然后就可以统计set中元素数量作为标准判断;
这个方式如果保存大量用户id就会比较麻烦。我们的目的是为了计数而不是保存用户id;
# pfadd:插入基数
# pfcount:统计基数数量
# pfmerge:合并两组基数(并集)
127.0.0.1:6379> PFadd mykey a b c e f g h i j # 创建第一组元素mykey
(integer) 1
127.0.0.1:6379> pfcount mykey # 统计基数数量
(integer) 9
127.0.0.1:6379> pfadd mykey2 i j k l m n o p q # 创建第二组元素mykey2
(integer) 1
127.0.0.1:6379> pfcount mykey2 # 统计基数数量
(integer) 9
127.0.0.1:6379> pfmerge mykey3 mykey mykey2 # 合并mykey,mykey2
OK
127.0.0.1:6379> pfcount mykey3 # 统计基数数量(并集)
(integer) 16
如果允许容错,那么一可以使用Hyperloglog
如果不允许容错,那么使用set或者自己的数据类型即可
Bitmap位存储
统计疫情感染人数,统计用户信息(活跃,不活跃,登录,未登录,365天打卡)两个状态的都可以使用Bitmap
Bitmap位图,数据结构!都是操作二进制位来进行记录,就只有0和1两个状态
365天=365bit 1字节=8bit 46个字节左右
# 使用bitmap来记录 周一到周日的打卡:setbit
# 周一:1 周二:0 周三:1 周四:0 周五:0 周六:1 周日:1
127.0.0.1:6379> setbit sign 0 1
(integer) 0
127.0.0.1:6379> setbit sign 1 0
(integer) 0
127.0.0.1:6379> setbit sign 2 1
(integer) 0
127.0.0.1:6379> setbit sign 3 0
(integer) 0
127.0.0.1:6379> setbit sign 4 0
(integer) 0
127.0.0.1:6379> setbit sign 5 1
(integer) 0
127.0.0.1:6379> setbit sign 6 1
(integer) 0
# 查看某一天是否有打卡:getbit
127.0.0.1:6379> getbit sign 3
(integer) 0
127.0.0.1:6379> getbit sign 6
(integer) 1
# 统计这周打卡记录,就可以看到是否全勤
# 统计操作,统计打卡的天数:bitcount
127.0.0.1:6379> bitcount sign
(integer) 4
事务
事务的本质:一组命令的集合,一个事务中的所有命令都会被序列化,在事务的执行过程中会按照顺序执行
一次性、顺序性、排他性!执行一系列命令
-----队列 set set set 执行 -----
MYSQL:ACID
原子性:一个事务要么同时成功要么同时失败
Redis事务没有隔离级别的概念
所有的命令在事务中并没有直接被执行!只有发起执行命令的时候才会执行!Exec
Redis单条命令是保证原子性的,但是事务不保证原子性
Redis的事务:
- 开启事务(multi)
- 命令入队(…)
- 执行事务(exec)
- 放弃事务(discard)
# 正常执行事务(每个事务执行完就没了,需要重新开启)
127.0.0.1:6379> multi # 开启事务
OK
127.0.0.1:6379> set k1 v1 # 命令入队
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> get k2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> exec # 执行事务
1) OK
2) OK
3) "v2"
4) OK
# discard:放弃事务,整个事务清空
127.0.0.1:6379> multi # 开启事务
OK
127.0.0.1:6379> set k1 v1 # 命令入队
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> discard # 取消事务
OK
127.0.0.1:6379> get k4
(nil)
编译型异常(代码有问题!命令有错!),事务中所有命令都不会执行!
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> getset k3 # 错误的命令
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> set k5 v5
QUEUED
127.0.0.1:6379> exec # 执行事务报错
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k5 # 所有的命令都不会执行
(nil)
运行时异常(1/0),如果事务队列中存在语法性错误,那么执行命令的时候其它命令是可以正常执行的,错误命令抛出异常
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> incr k1 # 字符串自增(语法错误)
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> get k3
QUEUED
127.0.0.1:6379> exec
1) (error) ERR value is not an integer or out of range # 报错,依旧执行成功
2) OK
3) OK
4) "v3"
127.0.0.1:6379> get k2
"v2"
127.0.0.1:6379> get k3
"v3"
小结:命令入队中报错则事务执行失败,语法错误则单条命令错误,事务依旧执行
监控 Watch
悲观锁:认为什么时候都会出现问题,无论如何都会加锁
乐观锁:
- 认为什么时候都不会出现问题,所以不会上锁!更新数据的时候去判断一下,在此期间是否有人修改过这个数据
- 获取version
- 更新时比较version
Redis测监视测试
# 正常执行成功
127.0.0.1:6379> set money 100
OK
127.0.0.1:6379> set out 0
OK
127.0.0.1:6379> get money
"100"
127.0.0.1:6379> watch money # 监视money对象
OK
127.0.0.1:6379> multi # 事务正常结束,数据期间没有发生变动,这个时候就正常执行成功
OK
127.0.0.1:6379> decrby money 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED
127.0.0.1:6379> exec
1) (integer) 80
2) (integer) 20
# 模拟多个线程,修改值,使用watch可以当作redis的乐观锁操作
# 线程1
127.0.0.1:6379> watch money # 1.监视money
OK
127.0.0.1:6379> multi # 2.开启事务
OK
127.0.0.1:6379> decrby money 10 # 3.命令入队
QUEUED
127.0.0.1:6379> incrby out 10
QUEUED
127.0.0.1:6379> exec # 5.执行事务
(nil) # 6.由于执行之前值被第二个线程修改,故事务执行失败
# 线程2
127.0.0.1:6379> get money # 4.第二个线程修改值
"80"
127.0.0.1:6379> set money 1000
OK
127.0.0.1:6379> get money
"1000"
(事务执行的时候,watch判断值是否是原来值,是则继续不是则失败)
127.0.0.1:6379> unwatch # 如果发现事务执行失败,就先解锁
OK
127.0.0.1:6379> watch money # 获取最新的值,再次监视
OK
127.0.0.1:6379> multi # 开启事务
OK
127.0.0.1:6379> decrby money 10 # 命令入队
QUEUED
127.0.0.1:6379> incrby money 10
QUEUED
127.0.0.1:6379> exec # 比对监视的值是否发生了变化,如果没有变化 那么可以执行成功
1) (integer) 990
2) (integer) 1000
# 如果修改失败 获取最新的值就好
redis实现乐观锁(使用watch监控)
Jedis
我们要使用Java来操作Redis
什么是Jedis 是Redis官方推荐的Java连接开发工具 使用Java才做Redis中间件 如果你要使用java操作Redis,那么一定要对Jedis十分的熟悉
知其然并知其所以然,慢慢来会好的
1.导入依赖
<dependencies>
<!-- 导入jedis的包 -->
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.2.0</version>
</dependency>
<!-- fastjson -->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.62</version>
</dependency>
</dependencies>
2.编码测试:
- 连接数据库:Jedis jedis = new Jedis(“127.0.0.1”,6379);
import redis.clients.jedis.Jedis;
public class TestPing {
public static void main(String[] args) {
// 1、new Jedis对象即可
Jedis jedis = new Jedis("127.0.0.1",6379);
// Jedis 所有的命令就是我们之前学的所有的指令
System.out.println(jedis.ping());
}
}
// 连接成功 输出PONG
- 操作命令
- 断开连接:jedis.close();
事务
public class TestTX {
public static void main(String[] args) {
Jedis jedis = new Jedis("127.0.0.1", 6379);
JSONObject jsonObject = new JSONObject();
jsonObject.put("hello","world");
jsonObject.put("name","alum");
// 开启事务
Transaction multi = jedis.multi();
// 转格式
String result = jsonObject.toJSONString();
// jedis.watch(result); 加乐观锁
try {
// 命令入队
multi.set("user1",result);
multi.set("user2",result);
// 如果成功,执行事务
multi.exec();
} catch (Exception e) {
// 如果失败,放弃事务
multi.discard();
e.printStackTrace();
} finally {
System.out.println(jedis.get("user1"));
System.out.println(jedis.get("user2"));
// 关闭连接
jedis.close();
}
}
}
SpringBoot整合Redis
SpringBoot操作数据:spring-data jpa jdbc mongodb redis
SpringData也是和SpringBoot齐名的项目
说明:在SpringBoot2.x之后,原来使用的jedis被替换为lettuce?
Jedis:采用的直连,多个线程操作的话是不安全的,如果想要避免不安全,使用Jedis pool连接池,更像Bio模式
Lettuce:采用netty,实例可以在多个线程中共享,不存在线程不安全的情况,可以减少线程数量,更像Nio模式
1.导入依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
2.配置连接
# 配置redis
spring.redis.host=127.0.0.1
spring.redis.port=6379
3.测试
@Autowired
private RedisTemplate redisTemplate;
@Test
void contextLoads() {
/**
* 基本操作
*/
/* redisTemplate.opsForValue()操作String,类似于String
redisTemplate.opsForList() 操作List,类似于List
redisTemplate.opsForCluster()
redisTemplate.opsForGeo()
redisTemplate.opsForHash()
redisTemplate.opsForHyperLogLog()
redisTemplate.opsForSet()
redisTemplate.opsForZSet()*/
/**
* 除了基本的操作,我们常用的方法都可以直接通过redisTemplate操作,比如事务,和基本的CRUD
*/
// redisTemplate.exec();
/**
* 获取redis连接对象
*/
/*RedisConnection connection = redisTemplate.getConnectionFactory().getConnection();
connection.flushDb();
connection.flushAll();*/
redisTemplate.opsForValue().set("mykey","arum");
redisTemplate.opsForValue().set("mykey2","你看起来很好吃");
Object key = redisTemplate.opsForValue().get("mykey2");
System.out.println(key);
}
@Test
void test() throws JsonProcessingException {
// 真实开发一般都使用json来传递对象
User alum = new User("Alum", 3);
// 如果直接传对象,需要对象序列化
String jsonUser = new ObjectMapper().writeValueAsString(alum);
redisTemplate.opsForValue().set("alum",jsonUser);
System.out.println(redisTemplate.opsForValue().get("alum"));
}
4.自定义RedisTemplate
@Configuration
public class RedisConfig {
// 编写我们自己的redisTemplate,自定义RedisTemplate
@Bean
@SuppressWarnings("all")
public RedisTemplate<String,Object> redisTemplate(RedisConnectionFactory factory){
// 为了自己开发方便,一般直接使用<String,Object>类型
RedisTemplate<String,Object> template = new RedisTemplate<String,Object>();
template.setConnectionFactory(factory);
// Json序列化配置
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper objectMapper = new ObjectMapper();
objectMapper.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
objectMapper.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(objectMapper);
// String的序列化
StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
// key采用String的序列化方式
template.setKeySerializer(stringRedisSerializer);
// hash的key也采用String的序列化方式
template.setHashKeySerializer(stringRedisSerializer);
// value序列化方式采用jackon
template.setValueSerializer(jackson2JsonRedisSerializer);
// hash的value序列化方式采用jackon
template.setHashValueSerializer(jackson2JsonRedisSerializer);
template.afterPropertiesSet();
return template;
}
}
5.RedisUtils
企业开发中,80%的情况下,都不会使用原生的方法去编写代码(通过RedisUtils)
package com.alum.utils;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Component;
import org.springframework.util.CollectionUtils;
import java.util.Collection;
import java.util.List;
import java.util.Map;
import java.util.Set;
import java.util.concurrent.TimeUnit;
@Component
public final class RedisUtil {
@Autowired
private RedisTemplate<String, Object> redisTemplate;
// =============================common============================
/**
* 指定缓存失效时间
* @param key 键
* @param time 时间(秒)
*/
public boolean expire(String key, long time) {
try {
if (time > 0) {
redisTemplate.expire(key, time, TimeUnit.SECONDS);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 根据key 获取过期时间
* @param key 键 不能为null
* @return 时间(秒) 返回0代表为永久有效
*/
public long getExpire(String key) {
return redisTemplate.getExpire(key, TimeUnit.SECONDS);
}
/**
* 判断key是否存在
* @param key 键
* @return true 存在 false不存在
*/
public boolean hasKey(String key) {
try {
return redisTemplate.hasKey(key);
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 删除缓存
* @param key 可以传一个值 或多个
*/
@SuppressWarnings("unchecked")
public void del(String... key) {
if (key != null && key.length > 0) {
if (key.length == 1) {
redisTemplate.delete(key[0]);
} else {
redisTemplate.delete((Collection<String>) CollectionUtils.arrayToList(key));
}
}
}
// ============================String=============================
/**
* 普通缓存获取
* @param key 键
* @return 值
*/
public Object get(String key) {
return key == null ? null : redisTemplate.opsForValue().get(key);
}
/**
* 普通缓存放入
* @param key 键
* @param value 值
* @return true成功 false失败
*/
public boolean set(String key, Object value) {
try {
redisTemplate.opsForValue().set(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 普通缓存放入并设置时间
* @param key 键
* @param value 值
* @param time 时间(秒) time要大于0 如果time小于等于0 将设置无限期
* @return true成功 false 失败
*/
public boolean set(String key, Object value, long time) {
try {
if (time > 0) {
redisTemplate.opsForValue().set(key, value, time, TimeUnit.SECONDS);
} else {
set(key, value);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 递增
* @param key 键
* @param delta 要增加几(大于0)
*/
public long incr(String key, long delta) {
if (delta < 0) {
throw new RuntimeException("递增因子必须大于0");
}
return redisTemplate.opsForValue().increment(key, delta);
}
/**
* 递减
* @param key 键
* @param delta 要减少几(小于0)
*/
public long decr(String key, long delta) {
if (delta < 0) {
throw new RuntimeException("递减因子必须大于0");
}
return redisTemplate.opsForValue().increment(key, -delta);
}
// ================================Map=================================
/**
* HashGet
* @param key 键 不能为null
* @param item 项 不能为null
*/
public Object hget(String key, String item) {
return redisTemplate.opsForHash().get(key, item);
}
/**
* 获取hashKey对应的所有键值
* @param key 键
* @return 对应的多个键值
*/
public Map<Object, Object> hmget(String key) {
return redisTemplate.opsForHash().entries(key);
}
/**
* HashSet
* @param key 键
* @param map 对应多个键值
*/
public boolean hmset(String key, Map<String, Object> map) {
try {
redisTemplate.opsForHash().putAll(key, map);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* HashSet 并设置时间
* @param key 键
* @param map 对应多个键值
* @param time 时间(秒)
* @return true成功 false失败
*/
public boolean hmset(String key, Map<String, Object> map, long time) {
try {
redisTemplate.opsForHash().putAll(key, map);
if (time > 0) {
expire(key, time);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 向一张hash表中放入数据,如果不存在将创建
*
* @param key 键
* @param item 项
* @param value 值
* @return true 成功 false失败
*/
public boolean hset(String key, String item, Object value) {
try {
redisTemplate.opsForHash().put(key, item, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 向一张hash表中放入数据,如果不存在将创建
*
* @param key 键
* @param item 项
* @param value 值
* @param time 时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间
* @return true 成功 false失败
*/
public boolean hset(String key, String item, Object value, long time) {
try {
redisTemplate.opsForHash().put(key, item, value);
if (time > 0) {
expire(key, time);
}
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 删除hash表中的值
*
* @param key 键 不能为null
* @param item 项 可以使多个 不能为null
*/
public void hdel(String key, Object... item) {
redisTemplate.opsForHash().delete(key, item);
}
/**
* 判断hash表中是否有该项的值
*
* @param key 键 不能为null
* @param item 项 不能为null
* @return true 存在 false不存在
*/
public boolean hHasKey(String key, String item) {
return redisTemplate.opsForHash().hasKey(key, item);
}
/**
* hash递增 如果不存在,就会创建一个 并把新增后的值返回
*
* @param key 键
* @param item 项
* @param by 要增加几(大于0)
*/
public double hincr(String key, String item, double by) {
return redisTemplate.opsForHash().increment(key, item, by);
}
/**
* hash递减
*
* @param key 键
* @param item 项
* @param by 要减少记(小于0)
*/
public double hdecr(String key, String item, double by) {
return redisTemplate.opsForHash().increment(key, item, -by);
}
// ============================set=============================
/**
* 根据key获取Set中的所有值
* @param key 键
*/
public Set<Object> sGet(String key) {
try {
return redisTemplate.opsForSet().members(key);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 根据value从一个set中查询,是否存在
*
* @param key 键
* @param value 值
* @return true 存在 false不存在
*/
public boolean sHasKey(String key, Object value) {
try {
return redisTemplate.opsForSet().isMember(key, value);
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将数据放入set缓存
*
* @param key 键
* @param values 值 可以是多个
* @return 成功个数
*/
public long sSet(String key, Object... values) {
try {
return redisTemplate.opsForSet().add(key, values);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 将set数据放入缓存
*
* @param key 键
* @param time 时间(秒)
* @param values 值 可以是多个
* @return 成功个数
*/
public long sSetAndTime(String key, long time, Object... values) {
try {
Long count = redisTemplate.opsForSet().add(key, values);
if (time > 0)
expire(key, time);
return count;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 获取set缓存的长度
*
* @param key 键
*/
public long sGetSetSize(String key) {
try {
return redisTemplate.opsForSet().size(key);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 移除值为value的
*
* @param key 键
* @param values 值 可以是多个
* @return 移除的个数
*/
public long setRemove(String key, Object... values) {
try {
Long count = redisTemplate.opsForSet().remove(key, values);
return count;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
// ===============================list=================================
/**
* 获取list缓存的内容
*
* @param key 键
* @param start 开始
* @param end 结束 0 到 -1代表所有值
*/
public List<Object> lGet(String key, long start, long end) {
try {
return redisTemplate.opsForList().range(key, start, end);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 获取list缓存的长度
*
* @param key 键
*/
public long lGetListSize(String key) {
try {
return redisTemplate.opsForList().size(key);
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
/**
* 通过索引 获取list中的值
*
* @param key 键
* @param index 索引 index>=0时, 0 表头,1 第二个元素,依次类推;index<0时,-1,表尾,-2倒数第二个元素,依次类推
*/
public Object lGetIndex(String key, long index) {
try {
return redisTemplate.opsForList().index(key, index);
} catch (Exception e) {
e.printStackTrace();
return null;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
*/
public boolean lSet(String key, Object value) {
try {
redisTemplate.opsForList().rightPush(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
* @param key 键
* @param value 值
* @param time 时间(秒)
*/
public boolean lSet(String key, Object value, long time) {
try {
redisTemplate.opsForList().rightPush(key, value);
if (time > 0)
expire(key, time);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
* @return
*/
public boolean lSet(String key, List<Object> value) {
try {
redisTemplate.opsForList().rightPushAll(key, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 将list放入缓存
*
* @param key 键
* @param value 值
* @param time 时间(秒)
* @return
*/
public boolean lSet(String key, List<Object> value, long time) {
try {
redisTemplate.opsForList().rightPushAll(key, value);
if (time > 0)
expire(key, time);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 根据索引修改list中的某条数据
*
* @param key 键
* @param index 索引
* @param value 值
* @return
*/
public boolean lUpdateIndex(String key, long index, Object value) {
try {
redisTemplate.opsForList().set(key, index, value);
return true;
} catch (Exception e) {
e.printStackTrace();
return false;
}
}
/**
* 移除N个值为value
*
* @param key 键
* @param count 移除多少个
* @param value 值
* @return 移除的个数
*/
public long lRemove(String key, long count, Object value) {
try {
Long remove = redisTemplate.opsForList().remove(key, count, value);
return remove;
} catch (Exception e) {
e.printStackTrace();
return 0;
}
}
}
Redis.conf详解
启动的时候就通过配置文件来启动
配置文件unit单位对大小写不敏感
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-y4hkXJp6-1608520475601)(C:\Users\deity\AppData\Roaming\Typora\typora-user-images\image-20201218154911758.png)]
包含,就好比我们学的Spring、Import、include,可以将其它配置文件包含进来
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-O8EiF6vs-1608520475603)(C:\Users\deity\AppData\Roaming\Typora\typora-user-images\image-20201218155133475.png)]
网络
绑定的id(通过什么id访问)
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-l0okbGb6-1608520475605)(C:\Users\deity\AppData\Roaming\Typora\typora-user-images\image-20201218155310022.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wYhLx3P7-1608520475608)(C:\Users\deity\AppData\Roaming\Typora\typora-user-images\image-20201218155446561.png)]
bind 127.0.0.1 # 绑定的ip
protected-mode yes # 保护模式
port 6379 # 端口设置,(集群需要多个端口)
General通用
daemonize yes # 以守护进程的方式运行,默认是no,我们需要自己开启为yes
supervised no # 管理守护进程的,默认是no,一般不要动
pidfile /var/run/redis_6379.pid # 如果以后台的方式运行,我们就需要指定一个pid文件
# 日志
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境适用
# warning (only very important / critical messages are logged)
loglevel notice
# Specify the log file name. Also the empty string can be used to force
# Redis to log on the standard output. Note that if you use standard
# output for logging but daemonize, logs will be sent to /dev/null
logfile "" # 日志的文件位置名
databases 16 # 默认数据库数量,默认是16个数据库
# By default Redis shows an ASCII art logo only when started to log to the
# standard output and if the standard output is a TTY. Basically this means
# that normally a logo is displayed only in interactive sessions.
#
# However it is possible to force the pre-4.0 behavior and always show a
# ASCII art logo in startup logs by setting the following option to yes.
always-show-logo yes # 是否总是显示logo,默认开启logo
快照
持久化,在规定的时间内,执行了多少次操作,则会持久化到文件.rdb.aof
redis是内存数据,如果没有持久化,数据断电即失
save 900 1 # 如果900秒内如果至少有一个key进行了修改,我们就进行持久化操作
save 300 10 # 如果300秒内如果至少有十个key进行了修改,我们就进行持久化操作
save 60 10000 # 如果60秒内如果至少有万个key进行了修改,我们就进行持久化操作
# 我们之后持久化,会自己定义这个测试
stop-writes-on-bgsave-error yes # 持久化如果出错了,是否还需要继续工作
rdbcompression yes # 是否压缩rdb文件(rdb:持久化文件),需要消耗一些cpu资源
rdbchecksum yes # 保存rdb文件的时候,进行错误校验
# The filename where to dump the DB
dbfilename dump.rdb
dir ./ # rdb文件保存目录
REPLICATION复制,主从复制范畴
SECURITY安全
# requirepass foobared # 设置密码 默认为空
127.0.0.1:6379> config get requirepass # 获取redis密码
1) "requirepass"
2) ""
# 登录
127.0.0.1:6379> auth 123456 # 使用密码进行登录
OK
CLIIENTS限制
maxclients 10000 # 设置能连接上redis的最大客户端的数量
maxmemory <bytes> # redis配置最大的内存容量
maxmemory-policy noeviction # 内存达到上限之后的处理策略
maxmemory-policy 六种方式
1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)
2、allkeys-lru : 删除lru算法的key
3、volatile-random:随机删除即将过期key
4、allkeys-random:随机删除
5、volatile-ttl : 删除即将过期的
6、noeviction : 永不过期,返回错误
APPEND ONLY模式
aof配置(相当于吧你的记录都记录了一遍)
appendonly no # 默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分的情况下,rdb完全够用
appendfilename "appendonly.aof" # 持久化文件名字
# appendfsync always # 每次修改都会执行sync,消耗性能
appendfsync everysec # 每秒执行一次sync,可能会丢失这1s的数据
# appendfsync no # 不执行sync(不执行同步),这个时候操作系统自己同步数据,速度最快
Redis持久化
RDB(Redis DataBase)
在主从复制中rdb是备用的,在从机中几乎不占内存
Redis是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会小时,所以Redis提供了持久化功能
在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。我们默认的就是RDB,一般情况下不需要修改这个配置!
有时候在生产环境我们会将这个文件进行备份!rdb保存的文件是dump.rdb 都是在我们的配置文件中快照中进行配置的!
触发机制
- save的规则满足的情况下,会自动触发rdb规则
- 执行 flflushall 命令,也会触发我们的rdb规则!
- 退出redis,也会产生 rdb 文件!
备份就自动生成一个 dump.rdb
恢复RDB文件
1.只需要将rdb文件放在我们redis启动目录下就可以,redis启动的时候会自动检查dump.rdb恢复其中的数据
2.查看需要存在的位置
127.0.0.1:6379>config get dir
1)"dir"
2)"/usr/local/bin" # 如果在这个目录下存在dump.rdb文件,启动就会自动恢复其中的数据
优点:
- 适合大规模数据恢复
- 对数据完整性不高,可使用
缺点:
- 需要一定的时间间隔进行操作,如果redis意外宕机,这个最后一次修改的数据就没了
- fork进程的时候,会占用一定的内存空间
AOF(Append Only File)
将我们的所有命令都记录下来,history,恢复的时候就把这个文件全部再执行一遍
以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
Aof保存的是 appendonly.aof 文件
appendonly yes # 默认是不开启的,改为yes即开启aof
重启redis即生效
如果aof文件有错误,redis是启动不起来的,我们需要修复aof文件,redis提供了一个工具redis-check-aof --fix appendonly.aof
如果文件正常,重启就可以直接恢复了!
重写规则说明:aof 默认就是文件的无限追加,文件会越来越大
如果 aof 文件大于 64m,太大了! fork一个新的进程来将我们的文件进行重写!
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
优点:
1、每一次修改都同步,文件的完整会更加好!
2、每秒同步一次,可能会丢失一秒的数据
3、从不同步,效率最高的!
缺点:
1、相对于数据文件来说,aof远远大于 rdb,修复的速度也比 rdb慢!
2、Aof 运行效率也要比 rdb 慢,所以我们redis默认的配置就是rdb持久化
扩展
1、RDB 持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
4、同时开启两种持久化方式
- 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF
- 文件保存的数据集要比RDB文件保存的数据集要完整。
- RDB 的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
5、性能建议
- 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留 save 900 1 这条规则。
- 如果Enable AOF ,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite 的最后将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
- 如果不Enable AOF ,仅靠 Master-Slave Repllcation 实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave 同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个 Master/Slave 中的 RDB文件,载入较新的那个,微博就是这种架构。
Redis发布订阅
Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。
Redis 客户端可以订阅任意数量的频道。
发送端:
127.0.0.1:6379>PUBLISH alum "hello,alum" # 发布者发布消息到频道alum
(integer)1
127.0.0.1:6379>PUBLISH alum "hello,redis" # 发布者发布消息到频道alum
(integer)1
订阅端:
127.0.0.1:6379>SUBSCRIBE alum # 订阅一个频道alun
Reading message...(press Ctrl-C to quit)
1)"subscribe"
2)"alum"
3)(integer)1
# 等待读取推送端的消息
1)"message" # 消息
2)"alum" # 哪个频道的消息
3)"hello,alum" # 消息的具体内容
1)"message" # 消息
2)"alum" # 哪个频道的消息
3)"hello,redis" # 消息的具体内容
Redis 发布订阅命令
下表列出了 redis 发布订阅常用命令:
序号 | 命令及描述 |
---|---|
1 | [PSUBSCRIBE pattern pattern …] 订阅一个或多个符合给定模式的频道。 |
2 | [PUBSUB subcommand argument [argument …]] 查看订阅与发布系统状态。 |
3 | PUBLISH channel message 将信息发送到指定的频道。 |
4 | [PUNSUBSCRIBE pattern [pattern …]] 退订所有给定模式的频道。 |
5 | [SUBSCRIBE channel channel …] 订阅给定的一个或多个频道的信息。 |
6 | [UNSUBSCRIBE channel [channel …]] 指退订给定的频道。 |
使用场景:
1、实时消息系统!
2、事实聊天!(频道当做聊天室,将信息回显给所有人即可!)
3、订阅,关注系统都是可以的!
稍微复杂的场景我们就会使用 消息中间件 MQ ()Redis主从复制
Redis主从复制
概念
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主,Slave 以读为主。
默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。()
主要作用
1、数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2、故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3、负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4、高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。一般来说,要将Redis运用于工程项目中,只使用一台Redis是万万不能的(宕机),原因如下:
1、从结构上,单个Redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大;
2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G,也不能将所有内存用作Redis存储内存,一般来说,单台Redis最大使用内存不应该超过20G。电商网站上的商品,一般都是一次上传,无数次浏览的,说专业点也就是"多读少写"。
配置
只配从库,不配置主库
127.0.0.1:6379> info replication # 查看当前库的信息
# Replication
role:master # 角色 master
connected_slaves:0 # 没有从机
master_replid:b63c90e6c501143759cb0e7f450bd1eb0c70882a master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
复制3个配置文件,然后修改对应的信息
1、端口 # port 6379
2、pid 名字 # pidfile /var/run/redis_6379.pid
3、log文件名字 # logfile “6379.log”
4、dump.rdb 名字 # dbfilename dump6379.rdb
修改完毕之后,启动我们的3个redis服务器,可以通过进程信息查看!(ps -ef|grep redis)
一主二从
127.0.0.1:6380> SLAVEOF 127.0.0.1 6379 # SLAVEOF host 6379 找谁当自己的老大!
OK
127.0.0.1:6380> info replication
# Replication
role:slave # 当前角色是从机
master_host:127.0.0.1 # 可以的看到主机的信息
master_port:6379
master_link_status:up master_last_io_seconds_ago:3
master_sync_in_progress:0
slave_repl_offset:14
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:a81be8dd257636b2d3e7a9f595e69d73ff03774e master_replid2:0000000000000000000000000000000000000000
master_repl_offset:14
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:14
# 在主机中查看!
127.0.0.1:6379> info replication
# Replication
role:master connected_slaves:1 # 多了从机的配置
slave0:ip=127.0.0.1,port=6380,state=online,offset=42,lag=1 # 多了从机的配置
master_replid:a81be8dd257636b2d3e7a9f595e69d73ff03774e master_replid2:0000000000000000000000000000000000000000
master_repl_offset:42
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:42
真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的。
主机可以写,从机不能写只能读!主机中的所有信息和数据,都会自动被从机保存!
测试:
主机断开连接,从机依旧连接到主机的,但是没有写操作,这个时候,主机如果回来了,从机依旧可以直接获取到主机写的信息!
如果是使用命令行,来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值!
复制原理:
Slave 启动成功连接到 master 后会发送一个sync(同步命令)
Master 接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
增量复制:Master 继续将新的所有收集到的修改命令依次传给slave,完成同步
但是只要是重新连接master,一次完全同步(全量复制)将被自动执行! 我们的数据一定可以在从机中看到!
哨兵模式
自动选举老大模式
主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel(哨兵) 架构来解决这个问题。
谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。
哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
这里的哨兵有两个作用:
- 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
- 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行监控,这样就形成了多哨兵模式。
假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。
测试:
我们目前的状态是 一主二从!
1、配置哨兵配置文件 sentinel.conf
# sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis 127.0.0.1 6379 1
#后面的这个数字1,代表主机挂了,slave投票看让谁接替成为主机,票数最多的,就会成为主机!
2、启动哨兵
redis-sentinel ArumConfig/sentinel.conf
如果Master 节点断开了,这个时候就会从从机中随机选择一个服务器! (这里面有一个投票算法!)
如果主机此时回来了,只能归并到新的主机下,当做从机,这就是哨兵模式的规则!
优点:
1、哨兵集群,基于主从复制模式,所有的主从配置优点,它全有
2、 主从可以切换,故障可以转移,系统的可用性就会更好
3、哨兵模式就是主从模式的升级,手动到自动,更加健壮!
缺点:
1、Redis 不好啊在线扩容的,集群容量一旦到达上限,在线扩容就十分麻烦!
2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!
哨兵模式的配置:
# Example sentinel.conf
# 哨兵sentinel实例运行的端口 默认26379
port 26379
# 哨兵sentinel的工作目录
dir /tmp
# 哨兵sentinel监控的redis主节点的 ip port
# master-name 可以自己命名的主节点名字 只能由字母A-z、数字0-9 、这三个字符".-_"组成。
# quorum 配置多少个sentinel哨兵统一认为master主节点失联 那么这时客观上认为主节点失联了
# sentinel monitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 6379 2
# 当在Redis实例中开启了requirepass foobared 授权密码 这样所有连接Redis实例的客户端都要提供 密码
# 设置哨兵sentinel 连接主从的密码 注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd
# 指定多少毫秒之后 主节点没有应答哨兵sentinel 此时 哨兵主观上认为主节点下线 默认30秒
# sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000
# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行 同步,这个数字越小,完成failover所需的时间就越长,但是如果这个数字越大,就意味着越 多的slave因为replication而不可用。可以通过将这个值设为 1 来保证每次只有一个slave 处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1
# 故障转移的超时时间 failover-timeout 可以用在以下这些方面:
#1. 同一个sentinel对同一个master两次failover之间的间隔时间。
#2. 当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那 里同步数据时。
#3.当想要取消一个正在进行的failover所需要的时间。
#4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时, slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟 # sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000
# SCRIPTS EXECUTION
#配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知 相关人员。
#对于脚本的运行结果有以下规则:
#若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
#若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
#如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
#一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等), 将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信 息。调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentinel.conf配 置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无 法正常启动成功。
#通知脚本
# shell编程
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已 经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。
# 参数 from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh # 一般都是由运维来配置
Redis缓存穿透和雪崩
Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据的一致性问题,从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。
另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。
缓存穿透
概念
用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒杀!),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
解决方案
1、布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;
2、缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;
但是这种方法会存在两个问题:
- 如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;
- 即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。
缓存击穿
概念
这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。
当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。
解决方案
1、设置热点数据永不过期
从缓存层面来看,没有设置过期时间,所以不会出现热点 key 过期后产生的问题。
2、加互斥锁
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
缓存雪崩
概念
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis 宕机!
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。
解决方案
1、redis高可用
这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群(异地多活!)
2、限流降级
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
3、数据预热
数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。