Redis入门到进阶

文章目录

Redis入门

概述

Redis是什么

Redis(Remote Dictionary Serve),即远程字典服务

Redis能干嘛?

1、内存存储,持久化,内存中是断电即失,所以说持久化很重要(rdb、aof)

2、效率高,可以用于高速缓存

3、发布订阅系统

4、地图信息分析

5、计时器、计数器(浏览量! )

特性

1、多样的数据类型

2、持久化

3、集群

4、事物

安装(docker安装)

使用命令:

docker run -p 6379:6379 -d redis:latest redis-server

docker container update --restart=always 容器名字

基础知识

redis默认共有16个数据库,0为默认使用的数据库,使用select进行切换

127.0.0.1:6379> select 1   #切换到数据库1
OK
127.0.0.1:6379> 
  • keys *查看所有的key

  • flushdbflushall清空当前数据库,清空所有数据库

  • exists key,判断值是否存在

  • move name 1,移动key为name到数据库1

  • expire name 20,设置key为name的值20s后过期

  • ttl name,查看当前key剩余秒数

redis是单线程

redis是基于内存,性能瓶颈不在cpu,redis的瓶颈是机器的内存和网络带宽

redis为什么单线程还这么块?

首先我们需要了解:

  • 高性能不一定就是多线程
  • 多线程(上下文切换)不一定比单线程速率高

*** 注意:redis的所有数据都是放在内存的,不用发生缺页中断不用进程置换,也不用进行额外的IO,单线程不需要进行上下文切换,所以单线程的效率高。***

数据类型

基础命令

keys *  #查看所有的key
flushdb   #清空当前数据库,
flushall  #清空所有数据库
exists key #判断值是否存在
move name 1 #移动key为name到数据库1
expire name 10 #设置key为name的值10s后过期
ttl name  #查看当前key剩余秒数
type name #查看当前key为name的值类型
append key1 "hello" #追加
strlen key1 # 查看key为key1的长度

String字符串

set key1 v1 #设置值
get key1 #获得值
append key1 "hello" #追加,如果key不存在,相当于set key
strlen key1 # 查看key为key1的长度
incr views # 自加1
decr views # 自减1
incrby views 10 # 自加10,步长为10
decrby views 10 # 自减10,步长为10
getrange key1 0 3 # 查看字符串范围 0到3(包括3)
getrange key1 0 -1 # 查看字符串全部范围
setrange key1 3 xxx # 替换指定位置3的字符串
setex #(set with expire) 设置过期时间
setex key3 30 "hello"
setnx #(set if not exist)    不存在再设置
setnx mykey "redis"
mset k1 v1 k2 v2 k3 v3  # 批量设置值
mget k1 k2 k3     # 批量获取值
msetnx k1 v1 k4 v4 # 当不存在时批量设置值 msetnx是一个原子性的操作,要么一起成功,要么一起失败
# 对象
set user:1 {name:zhangsan,age:3}
# 批量设置对象
# 这里的key是一个巧妙的设计:user:{id}:{filed},如此设计可以极大的提升复用率
mset user:2:name lisi user:2:age 21
OK
mget user:2:name user:2:age
1) "lisi"
2) "21"
getset key1 redis #先获取,再设置,如果不存在返回nil,设置新值,如果存在,替换原来的值

数据结构是相同的,string类似的使用场景:value除了是我们的字符串还可以是我们的数字

  • 计数器
  • 统计多单位的数量

列表(list)

redis中list可以被设计为栈,队列,阻塞队列等。

list使用的核心是所有命令都是以L开头的(不区分大小写),默认是先进后出。

  • lpush listname item向列表中添加元素(从list左边添加数据)

    实例:

    127.0.0.1:6379> lpush userlist "iceymoss"
    1
    127.0.0.1:6379> lpush userlist "jierkill"
    2
    127.0.0.1:6379> lpush userlist "srenlag"
    3
    127.0.0.1:6379> lpush userlist "moskel"
    4
    
  • lrange listname indexstart indexend索取list数据

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "moskel",
        "srenlag",
        "jierkill",
        "iceymoss"
    ]
    

    数据默认以栈的方式加入list

  • rpush listname item从list右边添加数据

    127.0.0.1:6379> rpush userlist "iceymoss"
    1
    127.0.0.1:6379> rpush userlist "jierkill"
    2
    127.0.0.1:6379> rpush userlist "srenlag"
    3
    127.0.0.1:6379> rpush userlist "moskel"
    4
    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss",
        "jierkill",
        "srenlag",
        "moskel"
    ]
    
  • lpop 默认弹出左边第一个元素

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "moskel",
        "srenlag",
        "jierkill",
        "iceymoss"
    ]
    127.0.0.1:6379> lpop userlist
    moskel
    127.0.0.1:6379> lpop userlist
    srenlag
    127.0.0.1:6379> lpop userlist
    jierkill
    127.0.0.1:6379> lpop userlist
    iceymoss
    127.0.0.1:6379> lpop userlist
    (nil)
    

    我们将lpushlpop结合起来userlist变成了一个栈,即先进后出。

  • rpop默认弹出右边第一个元素

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss",
        "jierkill",
        "srenlag",
        "moskel"
    ]
    127.0.0.1:6379> lpop userlist
    iceymoss
    127.0.0.1:6379> lpop userlist
    jierkill
    127.0.0.1:6379> lpop userlist
    srenlag
    127.0.0.1:6379> lpop userlist
    moskel
    127.0.0.1:6379> lpop userlist
    (nil)
    

    我们将rpushlpop(lpushrpop)结合起来userlist就变成了一个队列,即先进先出。

  • lindex 通过下标获取值

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss2",
        "iceymoss1",
        "iceymoss"
    ]
    127.0.0.1:6379> lindex userlist 0
    iceymoss2
    127.0.0.1:6379> lindex userlist -1
    iceymoss
    127.0.0.1:6379> 
    
  • llen 获取keylist的长度

    127.0.0.1:6379> llen userlist
    3
    
  • lrem移除指定的值

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss3",
        "iceymoss3",
        "iceymoss3",
        "iceymoss2",
        "iceymoss1",
        "iceymoss"
    ]
    127.0.0.1:6379> lrem userlist 1 "iceymoss" #移除uselist中的一个值: iceymoss
    1
    127.0.0.1:6379> lrem userlist 3 "iceymoss3" #移除userlist中的3个值,iceymoss3
    3
    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss2",
        "iceymoss1"
    ]
    
  • ltrim通过下标截取指定下标的list操作,截取后只剩下截取后的结果

    ltrim mylist 1 2
    
  • rpoplpush userlist userlist1将先对userlist进行rpop操作获取到数据,然后对userlist1进行lpush操作。

    127.0.0.1:6379> lrange userlist 0 -1
    [
        "iceymoss3",
        "iceymoss2",
        "iceymoss1"
    ]
    127.0.0.1:6379> rpoplpush userlist userlist1
    iceymoss1
    127.0.0.1:6379> lrange userlist1 0 -1
    [
        "iceymoss1"
    ]
    
  • lset更新操作,目标元素要先存在,否则失败

127.0.0.1:6379> lrange userlist1 0 -1
[
    "iceymoss1"
]
127.0.0.1:6379> lset userlist1 0 "yangkuang"
OK
127.0.0.1:6379> lrange userlist1 0 -1
[
    "yangkuang"
]
127.0.0.1:6379> 
  • linsert 列表插入操作

    127.0.0.1:6379> linsert userlist1 before "yangkuang" "你好呀" #向uselist1中“yangkuang"前后插入
    2 
    127.0.0.1:6379> lrange userlist1 0 -1
    [
        "你好呀",
        "yangkuang"
    ]
    

总结:

  • list实际上是一个链表,before node after,left,right 都可以插入值
  • 如果key不存在,创建新的链表
  • 如果key存在,新增内容
  • 如果移除了所有值,空链表,也代表不存在!
  • 在两边插入或者改动值,效率最高!中间元素,相对来说效率会低一点

集合(set)

set是集合,里面的元素是无序且唯一的

对set操作的核心是使用S

# 使用sadd进行添加元素
127.0.0.1:6379> sadd username "iceymoss"  
1
127.0.0.1:6379> sadd username "iceymos1"
1
127.0.0.1:6379> sadd username "iceymos2"

# 使用smembers查看元素
127.0.0.1:6379> smembers username 
[
    "iceymos1",
    "iceymos2",
    "iceymos3",
    "iceymoss"
]

# sismember判断某元素是否在集合中
127.0.0.1:6379> sismember username "iceymoss2"
0 #返回0表示不在

# scard返回金集合的元素个数
127.0.0.1:6379> scard username
4

# srem 移除集合中指定元素
127.0.0.1:6379> smembers username
[
    "iceymos1",
    "iceymos2",
    "iceymos3",
    "iceymoss"
]
127.0.0.1:6379> srem username "iceymoss"
1
127.0.0.1:6379> smembers username
[
    "iceymos1",
    "iceymos2",
    "iceymos3"
]

# srandmember随机抽取一个集合中的元素
127.0.0.1:6379> srandmember username
iceymos2
127.0.0.1:6379> srandmember username
iceymos2
127.0.0.1:6379> srandmember username
iceymos3

# spop随机移除元素
127.0.0.1:6379> spop username 
iceymos3
127.0.0.1:6379> spop username 
iceymos1
127.0.0.1:6379> smembers username
[
    "iceymos2"
]

# smove将一个指定的值,移动到另一个set集合中
127.0.0.1:6379> smembers username
[
    "iceymos2",
    "dkfj",
    "iceymoss1",
    "iceymoss2",
    "iceymoss4",
    "iceymoss3"
]
127.0.0.1:6379> sadd username1 "yauso"
1
127.0.0.1:6379> smembers usernam1
[]
127.0.0.1:6379> smembers username1
[
    "yauso"
]
127.0.0.1:6379> smove username username1 "dkfj"
1
127.0.0.1:6379> smembers username1
[
    "yauso",
    "dkfj"
]

# 数字集合类:(例如抖音B站:共同关注功能)
- 差集
- 交集
- 并集
127.0.0.1:6379> smembers user1_star
[
    "汤姆老师",
    "英雄联盟解说",
    "法外狂徒",
    "影视飓风",
    "kuangsheng",
    "偶像练习生蔡徐坤"
]
127.0.0.1:6379> smembers user2_star
[
    "lpl赛事",
    "罗翔说刑法",
    "汤姆老师",
    "偶像练习生蔡徐坤"
]

# sinter交集,两个用户的共同关注
127.0.0.1:6379> sinter user1_star user2_star
[
    "汤姆老师",
    "偶像练习生蔡徐坤"
]

# sunion并集
127.0.0.1:6379>  sunion user1_star user2_star
[
    "罗翔说刑法",
    "汤姆老师",
    "法外狂徒",
    "lpl赛事",
    "kuangsheng",
    "英雄联盟解说",
    "偶像练习生蔡徐坤",
    "影视飓风"
]

# sdiff差集 业务场景:抖音推荐对方还关注了(对方关注了,你没关注,即差集)
127.0.0.1:6379> sdiff user1_star user2_star
[
    "影视飓风",
    "kuangsheng",
    "英雄联盟解说",
    "法外狂徒"
]

微博,A用户将所有关注的人放在一个set集合中!将它的粉丝也放在一个集合中!共同关注,共同爱好,二度好友,推荐好友(六度分割理论)

散列(Hashes)

map集合,key-value相信学过任何一门编程语言的人都这个map

# hset设置hashe
127.0.0.1:6379> hset user name "iceymoss"
1

# hget获取值
127.0.0.1:6379> hget user1 name
dkfiel

# hmset设置hashe多个属性
127.0.0.1:6379> hmset userinfo name "iceymoss" age 18 gender "男"
OK

# hmget设置hashe多个属性
127.0.0.1:6379> hmget userinfo name age gender
[
    "iceymoss",
    "18",
    "男"
]

# 获取hashe的所有key-value
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "18",
    "gender": "男"
}

# 删除hashe指定key,对应的value也就删除了
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "18",
    "gender": "男"
}
127.0.0.1:6379> hdel userinfo gender
1
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "18"
}
127.0.0.1:6379> 

# hlen查看hashe的key数量
127.0.0.1:6379> hlen userinfo
2

# hexists判断hashe的某个key是否存在
127.0.0.1:6379> hexists userinfo name
1  #返回1表示存在,0不在

# hkeys返回所有key
127.0.0.1:6379> hkeys userinfo
[
    "name",
    "age"
]

# hvals返回所有value
127.0.0.1:6379> hvals userinfo
[
    "iceymoss",
    "18"
]
127.0.0.1:6379> 

# hincrby给hash某个字段指定增量
127.0.0.1:6379> hincrby userinfo age 1
19
127.0.0.1:6379> 
127.0.0.1:6379> hincrby userinfo age 1
20
127.0.0.1:6379> hincrby userinfo age 1
21
127.0.0.1:6379> hincrby userinfo age 1
22
127.0.0.1:6379> hincrby userinfo age 1
23
127.0.0.1:6379> hincrby userinfo age 1
24
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "24"
}

# hsetnx判断hash某个字段是否存在,不存在则可以设置,存在则不可以设置(应用分布式锁)
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "24"
}
127.0.0.1:6379> hsetnx userinfo gender "男"
1
127.0.0.1:6379> hsetnx userinfo gender "男"
0
127.0.0.1:6379> hgetall userinfo
{
    "name": "iceymoss",
    "age": "24",
    "gender": "男"
}

hash变更的数据user name age,尤其是用户信息之类的,经常变动的信息!hash更适合对象的存储

有序集合(Zset)

有序集合

在set的基础上,增加了一个值我们可以理解为权值,对比:sadd myset hello,zadd myzset 1 hello

所有zset的命令都是以z开头的

# zadd添加元素
127.0.0.1:6379> zadd myzset 1 chinese
1
127.0.0.1:6379> zadd myzset 2 math

# zrange获取有序集合所有元素
127.0.0.1:6379> zrange myzset 0 -1
[
    "chinese",
    "math"
]

# 排序
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
127.0.0.1:6379> zadd salary 500 xiaoming
(integer) 1

# 升序排序 从小到大
127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf
1) "xiaoming"
2) "xiaohong"
3) "zhangsan"

# 升序排序带参数
127.0.0.1:6379> ZRANGEBYSCORE salary -inf +inf withscores
1) "xiaoming"
2) "500"
3) "xiaohong"
4) "2500"
5) "zhangsan"
6) "5000"

# 从负无穷到2500进行排序并且附带参数
127.0.0.1:6379> ZRANGEBYSCORE salary -inf 2500 withscores
1) "xiaoming"
2) "500"
3) "xiaohong"
4) "2500"

# 降序排序,从大到小
127.0.0.1:6379> ZREVRANGE salary 0 -1
1) "zhangsan"
2) "xiaohong"
127.0.0.1:6379> ZREVRANGE salary 0 -1 withscores
1) "zhangsan"
2) "5000"
3) "xiaohong"
4) "2500"

# zrem移除元素
127.0.0.1:6379> ZRANGE salary 0 -1
1) "xiaoming"
2) "xiaohong"
3) "zhangsan"
127.0.0.1:6379> zrem salary xiaoming
(integer) 1
127.0.0.1:6379> ZRANGE salary 0 -1
1) "xiaohong"
2) "zhangsan"

# 获取有序集合中的个数
127.0.0.1:6379> zcard salary
(integer) 2

# 获取集合不同区间中的个数
127.0.0.1:6379> zcount myzset 1 2
(integer) 2
127.0.0.1:6379> zcount myzset 1 2
(integer) 2
127.0.0.1:6379> zcount myzset 1 3
(integer) 3
127.0.0.1:6379> zcount myzset 1 4
(integer) 3
127.0.0.1:6379> zcount myzset 0 4
(integer) 3

业务场景: 薪资排序,排序榜等

普通消息:1,重要消息:2 带权重进行判断

Redis的三种特殊数据类型

geospatial 地理位置存储

用于存储地理数据,而redis可以使用我们的业务场景中更方便的去使用该数据类型做,用户的定位、位置计算、网约车车费计算,查询附近的人等很多场景。

getadd

用于添加地理位置

需要注意一下几点:

  • 两级无法直接添加,大量数据可以直接通过相关程序一次性导入
  • 当经纬度超出一定范围时,会报超范围错误

实例:

127.0.0.1:6379> geoadd china:city 116.40 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen
(integer) 2
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou
(integer) 1
127.0.0.1:6379> geoadd china:city 108.96 34.26 xian
geopos

获取地理位置

实例:

127.0.0.1:6379> geopos china:city beijing
1) 1) "116.39999896287918091"
   2) "39.90000009167092543"
127.0.0.1:6379> geopos china:city beijing shanghai
1) 1) "116.39999896287918091"
   2) "39.90000009167092543"
2) 1) "121.47000163793563843"
   2) "31.22999903975783553"
geodist

获取给定的两个位置之间的直线距离

  • m:米
  • km:千米
  • mi:英里
  • ft:英尺

实例:

# 查看两个城市之间的距离
127.0.0.1:6379> geodist china:city beijing shanghai
"1067378.7564"
127.0.0.1:6379> geodist china:city beijing shanghai km  #以km为单位
"1067.3788"
georadius

给给定的一个坐标为中心,返回某个半径内的元素的值,业务场景:附近的人,附近车辆等。

实例:

# 找出110 30为中心 500 km半径内的元素
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqing"
2) "xian

# 显示直线距离
127.0.0.1:6379> georadius china:city 110 30 500 km withdist
1) 1) "chongqing"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"

127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) "483.8340"
   3) 1) "108.96000176668167114"
      2) "34.25999964418929977"
      
# 指定获得数量
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
georadiusbymember

以地点名称为中心查询,查询指定半径内的的元素

实例:

127.0.0.1:6379>  GEORADIUSBYMEMBER china:city shanghai 2000 km
[
    "chongqing",
    "xian",
    "shenzhen",
    "hangzhou",
    "shanghai",
    "beijing"
]
geohash

geohash 返回一个或多个位置元素的geohash表示,使用该命令将返回11 个字符串的geohash字符串

实例:

127.0.0.1:6379> geohash china:city beijing shenzhen
[
    "wx4fbxxfke0",
    "ws10578st80"
]

在Redis的五大基础数据类型学完后,其实geo的底层就是使用Zset进行封装的,下面我们来使用Zset命令操作地理数据

实例:

127.0.0.1:6379> zrange china:city 0 -1  #查看所有数据
[
    "chongqing",
    "xian",
    "shenzhen",
    "hangzhou",
    "shanghai",
    "beijing"
]

127.0.0.1:6379>  zrem china:city xian  #移除西安
1
127.0.0.1:6379> zrange china:city 0 -1
[
    "chongqing",
    "shenzhen",
    "hangzhou",
    "shanghai",
    "beijing"
]

hyperloglogs 基数存储

Ps: 这里需要先介绍一下基数,将一个系列的容器中,去重后的元素个数。

例如:{1, 2, 2, 5, 7, 7, 8, 12, 34} 原来总数为:9,基数:7

hyperloglogs是Redis统计基数的算法,有优点是:占用内存固定,2^64不同元素,只需要2KB的内存,从内存的角度来说使用hyperloglogs是很好的。

使用场景

统计网站的访问量,每一个设备只能访问计数一次,多次访问都是一次。

传统的方式,set保存用户的id,然后就可以统计set中的元素数量作为标准判断

这个方式如果保存大量的用户id,就会比较麻烦,我们的目的是为了计数,而不是保存用户id

但是需要注意:

  • 0.81%错误率!统计任务,可以忽略不计的

实例:

# 添加一个hyperloglog ,重复则替换
127.0.0.1:6379> pfadd key1 a b c d e f g
1

# 统计一个key1中有多少元素
127.0.0.1:6379>  PFCOUNT key1
7
127.0.0.1:6379>  pfadd key2 a b c d e f g h i j k l m n
1
127.0.0.1:6379> PFCOUNT key2
14

# 合并两个hyperloglog,求并集
127.0.0.1:6379> PFMERGE mykey key1 key2
OK
127.0.0.1:6379> PFCOUNT mykey
14
127.0.0.1:6379> 

bitmaps 位存储

Bitmaps位图,数据结构!都是操作二进制位来进行记录,只有0和1两个状态!常见的使用场景:用户信息,活跃or不活跃,在线or不在线等等。

实例:

使用bitmaps来记录周一到周日的打卡情况:1打卡;0未打卡

周一(0): 1;周二(1): 0;周三(2): 1;周四(3): 0;周五(4): 1;周六(5): 1;周日(6): 1 ps:你看你什么成分还想周末休息,赶紧加班吧!(狗头)

# 某员工打卡情况
127.0.0.1:6379> setbit sign 0 1
0
127.0.0.1:6379> setbit sign 1 0
0
127.0.0.1:6379> setbit sign 2 1
0
127.0.0.1:6379> setbit sign 3 0
0
127.0.0.1:6379> setbit sign 4 1
0
127.0.0.1:6379> setbit sign 5 1
0
127.0.0.1:6379> setbit sign 6 1
0

# 老板心情好查看一下某员工的打卡情况
# 查看对应存的值
127.0.0.1:6379> getbit sign 2
1
# 周四忘打卡,拿不到全勤奖金了!
127.0.0.1:6379> getbit sign 3
0

# 统计打开天数
127.0.0.1:6379> bitcount sign
5

事务

我们在学关系型数据库的时候都学过事务,以及事务的几大特性(ACID),以及隔离级别等。

Redis的事务本质:一组命令的集合 一个事务中的所有命令都会被序列化,在事务执行过程中,会按照命令的顺序执行。

Redis事务的特性:

  • 一次性

  • 顺序性

  • 排他性

    队列queue: set set set set get set 执行
    

注意:redis单条命令是保证原子性的,但是Redis的事务是不保证原子性的,Redis也是没有隔离级别的。

当开启事务后,所有的命令都会放入队列中,不会别直接执行的,只有发起执行命令的时候才会执行!exec

Redis的事务命令:

  • 开始事务:(multi)
  • 命令入队(……)
  • 执行事务(exec)
正常事务的开启执行

实例:

127.0.0.1:6379> multi  #开启事务
OK
127.0.0.1:6379> set k1 v1    #命令入队
QUEUED
127.0.0.1:6379> set k2 v2    #命令入队
QUEUED
127.0.0.1:6379> get k2       #命令入队
QUEUED
127.0.0.1:6379> set k3 v3    #命令入队
QUEUED
127.0.0.1:6379> exec         #执行事务
[
    "OK",
    "OK",
    "v2",
    "OK"
]
放弃事务(discard)

当我们开启事务后然后不想执行当前事务,使用discard命令放弃事务

实例:

127.0.0.1:6379> multi     #开启事务
OK
127.0.0.1:6379> set k1 v1   
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> get k1
QUEUED
127.0.0.1:6379> discard   #放弃事务
OK
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> get k1
v1
两大异常
编译型异常

编译型异常指代码有问题!命令错误!在事务中所有的命令都不会被执行!不会别编译过去!

实例:

127.0.0.1:6379> multi   #开启事务
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> getset k2   #写入一个错误命令,直接报错
ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> set k4 v4   #继续向事务队列中写入命令
QUEUED
127.0.0.1:6379> exec        #执行事务,此时所有命令都不会被执行
EXECABORT Transaction discarded because of previous errors.
运行时异常

运行时异常指,给出命令没有问题,例如1/0,那么在执行命令的时候其他没有问题的命令是可以正常执行的,错误命令抛出异常!

实例:

127.0.0.1:6379> multi
OK
127.0.0.1:6379> get k1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> exec
Cannot read properties of null (reading 'type')  #这里会报错,但是可以正常获取其他值
127.0.0.1:6379> get k1    #没有k1
(nil)
127.0.0.1:6379> get k2    #有k2
v2

监控(watch )

悲观锁

悲观锁可以理解为做什么事都以一种悲观的态度,认为事情总会发生,就是指在任何情况下都加锁。

乐观锁

很乐观,认为什么情况下都不会发生,持乐观态度,所以不会上锁,更新的时候去去检查在此期间(指从查询到数据->更新数据之间)操作的数据在数据库有没有被更新过,字段version。

步骤:

  • 获取verison
  • 更新数据的时候比较version
基于Redis的乐观锁
使用watch开启监视

使用watch开启监视(获取version),需要注意的是,在监控期间数据没有发生变动的时候事务才能正常执行成功,如果失败了,也需要使用unwatch解除监控。

假设你和你女朋友一共有一百块钱money = 100去消费,那么的消费情况刚开始out = 0

模拟单线程情况下:

127.0.0.1:6379> set money  100
OK
127.0.0.1:6379> set out 0
ok

# 监控money对象
127.0.0.1:6379> watch money 
ok

# 期间数据没有发生变动,这时候就正常执行成功
# 开启事务
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby money 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED

# 执行事务
127.0.0.1:6379> exec
[
    80,
    20
]

模拟多线程情况下:

线程1执行:

127.0.0.1:6379> watch money
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby money 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED
127.0.0.1:6379> exec
(nil)
127.0.0.1:6379> get money

线程2突然进来执行:

127.0.0.1:6379> get money
100
127.0.0.1:6379> set money 200
OK
127.0.0.1:6379> 

然后回到线程1执行:

127.0.0.1:6379> exec
(nil)

我们的线程1的事务就执行失败了,此时的money = 200。

那么为什么线程1的事务会执行失败呢?答案:watch是Redis的乐观锁,线程1获取到version后,线程2执行了对数据库的更该,线程1在执行事务时(更新数据)发现前后的version值不想同,进而导致失败。

注意:如果发现事务失败后,需要解除监控,从新监控获取最新值。

Go-Redis

Go-Redis是什么?

Go-Redis是支持Redis Server和Redis Cluster的Golang客户端,接下来我们要使用golang来操作Redis。

多种客户端

支持单机Redis Server、Redis Cluster、Redis Sentinel、Redis分片服务器

数据类型

go-redis会根据不同的redis命令处理成指定的数据类型,不必进行繁琐的数据类型转换

功能完善

go-redis支持管道(pipeline)、事务、pub/sub、Lua脚本、mock、分布式锁等功能

安装

开源地址:https://github.com/redis/go-redis

直接使用命令安装,前提是您的设备已经配置了golang的开发环境。

go-redis 支持 2 个最新的 Go 版本,并且需要具有模块支持的 Go 版本 。所以一定要初始化一个 Go 模块:

go mod init github.com/my/repo

然后安装 go-redis/ v9

go get github.com/redis/go-redis/v9
快速使用
package main

import (
  "fmt"
	"time"
	"context"
 
  "github.com/redis/go-redis/v9"
)

func main() {
	rdb := redis.NewClient(&redis.Options{
		Addr:     "localhost:6379",
		Password: "", // no password set
		DB:       0,  // use default DB
	})
  
	defer rdb.Close()
  
	rdb.Ping(context.Background())

	status := rdb.Set(context.Background(), "money", 1000, time.Second*100)
	if status.Err() != nil {
		panic(status.Err())
	}

	res := rdb.Get(context.Background(), "money")
	if res.Err() != nil {
		panic(res.Err())
	}
	fmt.Println(res.Val())
}

我们在前面使用的命令都封装在go-redis中是一个一个的方法,可以参考go-redis:https://github.com/redis/go-redis/blob/master/commands.go#L158

下面将介绍go-redis的一些常用方法:

//go-redis需要接收一个上下文
ctx := context.Background()

	//清空数据库
	rdb.FlushAll(ctx)
	rdb.FlushDB(ctx)

	//判断是否存在key
	rdb.Exists(ctx, "username")

	//设置key
	rdb.Set(ctx, "username", "iceymoss", time.Hour*24*30)
	rdb.Set(ctx, "password", "123456", time.Hour*24*30)

	//获取key
	rdb.Get(ctx, "username").Val()
	rdb.Get(ctx, "password").Val()
	
	//删除key
	rdb.Del(ctx, "username")
	rdb.Del(ctx, "password")

	//获取key类型
	rdb.Type(ctx, "username")
	
	//随机获取一个key
	rdb.RandomKey(ctx)

	//重命名key
	rdb.Rename(ctx, "username", "name")
	rdb.Get(ctx, "name")
	
	//返回key的总数
	rdb.DBSize(ctx)

下面将给出几大类型的方法,具体实例就展开了

操作string的方法
  • Get 获取值
  • Set 设置key
  • GetSet 设置一个key的值,并返回这个key的旧值:
  • SetNX 如果key不存在,则设置这个key
  • MGet 批量获取
  • MSet 批量设置key
  • Incr,IncrBy 自增1,自增指定长
  • Decr,DecrBy 自减,自减指定长
  • Del 删除key
  • Expire 设置过期时间
操作list的方法
  • LPush 从list左插入

  • LPushX 跟LPush的区别是,仅当列表存在的时候才插入数据,用法完全一样。

  • RPop 从list移除第一个元素,并返回

  • RPush 从list右插入

  • RPushX 跟RPush的区别是,仅当列表存在的时候才插入数据,用法完全一样。

  • LPop 从list左边移出第一个元素并返回

  • LLen 返回list大小

  • LRange 返回列表的一个范围内的数据,也可以返回全部数据

  • LRem 删除列表中的数据

    // 从列表左边开始,删除100, 如果出现重复元素,仅删除1次,也就是删除第一个
    dels, err := rdb.LRem(ctx,"key",1,100).Result()
    if err != nil {
    	panic(err)
    }
    
  • LIndex 根据索引坐标,查询列表中的数据
  • LInsert 根据指定位置向list插入元素
操作Hasha的方法

内部采用数组+链表结构,采用链地址法解决哈希冲突。

  • HSet 根据key和field字段设置,field字段的值

    // user_1 是hash key,username 是字段名, zhangsan是字段值
    err := rdb.HSet(ctx,"user_1", "username", "zhangsan").Err()
    if err != nil {
    	panic(err)
    }
    
  • HGet 根据key和field字段获取field的值

    // user_1 是hash key,username是字段名
    username, err := rdb.HGet(ctx,"user_1", "username").Result()
    if err != nil {
    	panic(err)
    }
    fmt.Println(username)
    
  • HGetAll 根据根据key查询所有字段

    // 一次性返回key=user_1的所有hash字段和值
    data, err := rdb.HGetAll(ctx,"user_1").Result()
    if err != nil {
    	panic(err)
    }
    
    // data是一个map类型,这里使用使用循环迭代输出
    for field, val := range data {
    	fmt.Println(field,val)
    }
    
  • HIncrBy 根据key和field字段,累加字段的数值

  • HKeys 根据key返回所有字段名

  • HLen 根据key,查询hash的字段数量

  • HMGet 根据key和多个字段获取多个字段值

  • HMSet 根据key和多个字段名和字段值,批量设置hash字段值

  • HSetNX 如果key不存在则创建

    err := rdb.HSetNX(ctx,"key", "id", 100).Err()
    if err != nil {
    	panic(err)
    }
    
  • HDel 根据key和字段名,删除hash字段,支持批量删除hash字段

    // 删除一个字段id
    rdb.HDel(ctx,"key", "id")
    
    // 删除多个字段
    rdb.HDel(ctx,"key", "id", "username")
    
    
  • HExists 检测hash字段名是否存在

    // 检测id字段是否存在
    err := rdb.HExists(ctx,"key", "id").Err()
    if err != nil {
    	panic(err)
    }
    
操作set的方法
  • SAdd 向集合中添加元素

    // 添加100到集合中
    err := rdb.SAdd(ctx,"key",100).Err()
    if err != nil {
    	panic(err)
    }
    
    // 将100,200,300添加到集合中
    rdb.SAdd(ctx,"key",100, 200, 300)
    
  • SCard 获取集合元素个数

  • SIsMember 判断是否在集合中

  • SMembers 获取集合中的所有元素

  • SRem 删除集合所有元素

  • Spop, SpopN 随机返回集合中的元素,并且删除返回的元素

操作Zset的方法
  • ZAdd 向有序集合中添加元素

  • ZCard 获取有序集合的元素个数

  • ZCount 根据权重统计范围

  • ZIncrBy 增加元素的分数

  • ZRange,ZRevRange 返回集合中某个索引范围的元素,根据分数从小到大排序

  • ZRangeByScore 根据分数范围返回集合元素,元素根据分数从小到大排序,支持分页。

  • ZRevRangeByScore 用法类似ZRangeByScore,区别是元素根据分数从大到小排序。

  • ZRangeByScoreWithScores 用法跟ZRangeByScore一样,区别是除了返回集合元素,同时也返回元素对应的分数

  • ZRem 删除集合元素

  • ZRemRangeByRank 根据索引范围删除元素

  • ZRemRangeByScore 根据分数范围删除元素

  • ZScore 查询元素对应的分数

  • ZRank 根据元素名,查询集合元素在集合中的排名,从0开始算,集合元素按分数从小到大排序

其他操作
geospatial
	GeoAdd(ctx context.Context, key string, geoLocation ...*GeoLocation) *IntCmd
	GeoPos(ctx context.Context, key string, members ...string) *GeoPosCmd
	GeoRadius(ctx context.Context, key string, longitude, latitude float64, query *GeoRadiusQuery) *GeoLocationCmd
	GeoRadiusStore(ctx context.Context, key string, longitude, latitude float64, query *GeoRadiusQuery) *IntCmd
	GeoRadiusByMember(ctx context.Context, key, member string, query *GeoRadiusQuery) *GeoLocationCmd
	GeoRadiusByMemberStore(ctx context.Context, key, member string, query *GeoRadiusQuery) *IntCmd
	GeoSearch(ctx context.Context, key string, q *GeoSearchQuery) *StringSliceCmd
	GeoSearchLocation(ctx context.Context, key string, q *GeoSearchLocationQuery) *GeoSearchLocationCmd
	GeoSearchStore(ctx context.Context, key, store string, q *GeoSearchStoreQuery) *IntCmd
	GeoDist(ctx context.Context, key string, member1, member2, unit string) *FloatCmd
	GeoHash(ctx context.Context, key string, members ...string) *StringSliceCmd
hyperloglogs
PFAdd(ctx context.Context, key string, els ...interface{}) *IntCmd
PFCount(ctx context.Context, keys ...string) *IntCmd
PFMerge(ctx context.Context, dest string, keys ...string) *StatusCmd
……
……
……

bitmaps
SetBit(ctx context.Context, key string, offset int64, value int) *IntCmd
GetBit(ctx context.Context, key string, offset int64) *IntCmd
BitCount(ctx context.Context, key string, bitCount *BitCount) *IntCmd
……
……
……
go-redis完成事务

假设我们有money = 100, 去消费,刚开开始out = 0

package main

import (
	"context"
	"fmt"
	"github.com/redis/go-redis/v9"
	"time"
)

func main() {
	rdb := redis.NewClient(&redis.Options{
		Addr:     "localhost:6379",
		Password: "", // no password set
		DB:       0,  // use default DB
	})

	ctx := context.Background()
	defer rdb.Close()

	rdb.Set(ctx, "money", 100, time.Hour*24*30)
	rdb.Set(ctx, "out", 0, time.Hour*24*30)

	//开启一个事务
	multi := rdb.TxPipeline()

	//消费20元
	dec := rdb.DecrBy(ctx, "money", 20)
	//执行失败取消事务
	if dec.Err() != nil {
		multi.Discard()
		return
	}
	inc := rdb.IncrBy(ctx, "out", 20)
	if inc.Err() != nil {
		multi.Discard()
		return
	}

  //执行事务
	multi.Exec(ctx)

	fmt.Println(rdb.Get(ctx, "money").Val())
	fmt.Println(rdb.Get(ctx, "out").Val())
}

输出:

80
20

当消费超出本金后,需要取消事务:

package main

import (
	"context"
	"fmt"
	"github.com/redis/go-redis/v9"
	"strconv"
	"time"
)

func main() {
	rdb := redis.NewClient(&redis.Options{
		Addr:     "localhost:6379",
		Password: "", // no password set
		DB:       0,  // use default DB
	})

	ctx := context.Background()
	defer rdb.Close()

	rdb.Set(ctx, "money", 100, time.Hour*24*30)
	rdb.Set(ctx, "out", 0, time.Hour*24*30)

	//开启一个事务
	multi := rdb.TxPipeline()

	wantOut := 120
	money, _ := strconv.Atoi(rdb.Get(ctx, "out").Val())
	if money < wantOut {
		multi.Discard()
		return
	}

	//消费20元
	dec := rdb.DecrBy(ctx, "money", int64(wantOut))
	//执行失败取消事务
	if dec.Err() != nil {
		multi.Discard()
		return
	}
	inc := rdb.IncrBy(ctx, "out", int64(wantOut))
	if inc.Err() != nil {
		multi.Discard()
		return
	}

	multi.Exec(ctx)
}

事务会被取消

go-redis乐观锁
ctx := context.Background()

	// 定义一个回调函数,用于处理事务逻辑
	fn := func(tx *redis.Tx) error {
		// 先查询下当前watch监听的key的值
		v, err := tx.Get(ctx, "key").Int()
		if err != nil && err != redis.Nil {
			return err
		}
		// 这里可以处理业务
		v++

		// 如果key的值没有改变的话,Pipelined函数才会调用成功
		_, err = tx.Pipelined(ctx, func(pipe redis.Pipeliner) error {
			// 在这里给key设置最新值
			pipe.Set(ctx, "key", v, 0)
			return nil
		})
		return err
	}

	// 使用Watch监听一些Key, 同时绑定一个回调函数fn, 监听Key后的逻辑写在fn这个回调函数里面
	// 如果想监听多个key,可以这么写:client.Watch(ctx,fn, "key1", "key2", "key3")
	rdb.Watch(ctx, fn, "key")

Redis进阶

Redis.conf配置介绍

  • 单位
    # Note on units: when memory size is needed, it is possible to specify
    # it in the usual form of 1k 5GB 4M and so forth:
    #
    # 1k => 1000 bytes
    # 1kb => 1024 bytes
    # 1m => 1000000 bytes
    # 1mb => 1024*1024 bytes
    # 1g => 1000000000 bytes
    # 1gb => 1024*1024*1024 bytes
    #
    # units are case insensitive so 1GB 1Gb 1gB are all the same.
    

    配置文件对大小写不敏感

  • redis配置文件可以有多个导入(可以配置多个文件)
    ################################## INCLUDES ###################################
    
    # Include one or more other config files here.  This is useful if you
    # have a standard template that goes to all Redis servers but also need
    # to customize a few per-server settings.  Include files can include
    # other files, so use this wisely.
    #
    # Notice option "include" won't be rewritten by command "CONFIG REWRITE"
    # from admin or Redis Sentinel. Since Redis always uses the last processed
    # line as value of a configuration directive, you'd better put includes
    # at the beginning of this file to avoid overwriting config change at runtime.
    #
    # If instead you are interested in using includes to override configuration
    # options, it is better to use include as the last line.
    #
    # include /path/to/local.conf
    # include /path/to/other.conf
    
  • 网络: 是否提供远程访问等
    ################################## NETWORK #####################################
    
    # By default, if no "bind" configuration directive is specified, Redis listens
    # for connections from all the network interfaces available on the server.
    # It is possible to listen to just one or multiple selected interfaces using
    # the "bind" configuration directive, followed by one or more IP addresses.
    #
    # Examples:
    #
    # bind 192.168.1.100 10.0.0.1
    # bind 127.0.0.1 ::1
    

    可以使用命令修改ip:

    bind 127.0.0.1 #绑定的ip
    protected-mode yes #受保护模式
    port 6379 #端口设置
    
  • 通用配置
    ################################# GENERAL #####################################
    
    # By default Redis does not run as a daemon. Use 'yes' if you need it.
    # Note that Redis will write a pid file in /var/run/redis.pid when daemonized.
    ……
    ……
    ……
    

    相应的配置作用如下:

    daemonize yes # 以守护进程的方式运行,默认no,需要开启yes(允许后台运行)
    pidfile /var/run/redis_6379.pid #如果以后台的方式运行,我们需要指定一个pid进程文件
    loglevel notice #日志的级别
    logfile "" #日志的文件位置名
    databases 16 #默认的16个数据库,数据库的数量
    always-show-logo yes #是否显示logo
    
  • 快照

    持久化,在规定的时间内,执行了多少次操作,则会持久化到文件==.rbd==,.aof

    redis是基于内存数据库,如果没有持久化,那么数据断电即失。

    save 900 1   #900s内,至少有一个key进行了修改,就进行持久化操作
    save 300 10
    save 60 10000
    
    stop-writes-on-bgsave-error yes  #持久化失败后,redis是否还要进行工作
    
    dbfilename dump.rdb #是否压缩rdb文件,需要消耗cpu资源
    
    rdbchecksum yes #保存reb文件的时候,进行检查修复rdb文件错误
    
    dir ./ #rdb文件保存位置
    
    
    
  • 主从复制
  • 安全

    密码,redis默认是没有密码的

    # requirepass foobared
    

    如果需要使用密码可直接在配置文件中进行修改:

    requirepass 123456
    
    # 使用命令设置密码
    config get requirepass #获取redis的密码
    config set requirepass "123456" #设置redis密码
    auth 123456 #使用密码登录,校验密码
    
  • 客户端
    maxclients 10000 #设置能连接上redis的最大客户端的数量
    maxmemory <bytes> #redis配置最大的内存容量
    maxmemory-policy noeviction #内存到达上限之后的处理策略#移除一些过期的key#报错 
        redis.conf中的默认的过期策略是 volatile-lru
        maxmemory-policy 六种方式
        1、volatile-lru:只对设置了过期时间的key进行LRU(默认值) 
        2、allkeys-lru : 删除lru算法的key   
        3、volatile-random:随机删除即将过期key   
        4、allkeys-random:随机删除   
        5、volatile-ttl : 删除即将过期的   
        6、noeviction : 永不过期,返回错误
    
  • aof配置(持久化配置)
    appendonly no #默认不开启aof模式,默认是使用rdb方式持久化,在大部分所有的情况下,rdb完全够用
    appendfilename "appendonly.aof" #持久化的文件名字 
    appendfsync always # 每次修改都会sync,消耗性能!
    appendfsync everysec # 每秒执行一次sync,可能会丢失这1s的数据!
    appendfsync no # 不执行sync同步,这个时候操作系统自己同步数据,速度最快!
    

Redis持久化

我们知道redis是基于内存的数据库,如果我们不将数据写入磁盘中,当计算机断电或者发生什么意外之后,进程关闭,我们之前的redis中的状态和数据就没有了,所以我们需要将必要数据进行持久化。

RDB(Redis DataBase)

在指定的时间间隔内将redis所有数据集快照(副本)写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。

如下图:

redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,带持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那rdb方式要比AOF方式更加高效。rdb的缺点是最后一次持久化后的数据可能丢失。默认就是rdb,一般不需要修改这个配置

保存rdb文件是:dump.rdb

在配置文件可以看到:

# The filename where to dump the DB
dbfilename dump.rdb

持久化规则:我们可以在配置文件中修改参数,从而满足业务需求

save 900 1   #900s内,至少有一个key进行了修改,就进行持久化操作
save 300 10
save 60 10000
触发机制
  • 在满足save条件下会自动触发rdb规则(生成rdb文件)
  • 执行flushall命令,也会触发rdb规则(生成rdb文件)
  • 退出redis,也会产生rdb文件!

备份就会自动生成一个dump.rdb

修复rdb文件

当我们进程不小心挂了,要如何快速恢复redis的数呢?

  • 将rdb文件放置redis启动目录之下即可,Redis会自动从该位置读取rdb文件

  • 如何查看Redis启动目录:

    127.0.0.1:6379> config get dir
    1) "dir"
    2) "usr/local/bin" # 如果这个目录下存在dump.rdb文件,启动就会自动恢复其中的数据
    
优点
  • 将数据持久化是Redis进程fork的子进程完成的,所以主进程没有进行io操作,效率非常高,适合大量数据的恢复。
  • 使用者对数据的完整性不高,非常合适。
缺点
  • 最后一次持久化后的数据可能丢失。
  • fork出来的子进程需要占用cpu资源。

aof (append only file)

aof是什么?答:直译追加文件的意思,aof的核心就是将执行的每一条命令记录下来,类似history,追加到文件中,当需要恢复数据时,直接将记录下来的所有命令从新执行一变即可。

aof以日志的方式来记录每一个写操作,将Redis执行的所有命令记录下来(只对写操作进行记录),只允许追加文件不可以修改文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。

工作流程如下:

文件类型

保存的是appendonly.aof文件

如何查看

可以在Redis配置中查看,aof默认是不开启的,需要手动开启,改成:appendonly yes重启就可以生效了;默认aof文件名:appendonly.aof

# Please check http://redis.io/topics/persistence for more information.

appendonly no

# The name of the append only file (default: "appendonly.aof")

appendfilename "appendonly.aof"

注意:如果这个aof文件有错,这时候redis是启动不起来的。我们需要修复这个aof文件,redis给我们提供了一个工具redis-check-aof --fix

aof策略

在配置文件中:

# appendfsync always
appendfsync everysec
# appendfsync no
重写规则说明

aof默认就是文件的无限追加,文件会越来越大

优点
appendfsync always # 每次修改都会sync,消耗性能!
appendfsync everysec # 每秒执行一次sync,可能会丢失这1s的数据!
appendfsync no # 不执行sync同步,这个时候操作系统自己同步数据,速度最快!
  • 每一次修改都同步,文件的完整性会更加好!

  • 每秒同步一次,可能会丢失一秒的数据

  • 从不同步,效率最高的!

缺点
  • 相对于数据文件来说,aof远大于rdb,修复的速度也比rdb慢。

  • aof运行效率也要比rdb慢,所以redis默认的配置就是rdb持久化。

拓展

1、rdb持久化方式能够在指定的时间间隔内对你的数据进行快照存储

2、aof持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,aof命令以redis协议追加保存每次写的操作到文件末尾,redis还能对aof文件进行后台重写,使得aof文件的体积不至于过大。

3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化

4、同时开启两种持久化方式

  • 在这种情况下,当redis重启的时候会优先载入aof文件来恢复原始的数据,因为在通常情况下aof文件保存的数据集要比rdb文件保存的数据集要完整
  • rdb的数据不实时,同时使用两者时服务器重启也只会找aof文件,那要不要只使用aof呢?作者建议不要,因为rdb更适合用于备份数据库(aof在不断变化不好备份),快速重启,而且不会有aof可能潜在的bug,留着作为一个万一的手段。

5、性能建议

  • 因为rdb文件只用作后备用途,建议只在slave上持久化rdb文件,而且只要15分钟备份一次就够了,只保留save 900 1 这条规则。
  • 如果enable aof 好处是在最恶劣的情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的aof文件就可以了,代价一是带来了持续的IO,二是aof rewrite的最后将rewrite过程中产生的新数据写到新文件造成阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少aof rewrite 的频率,aof重写的基础大小默认值64m太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
  • 如果不enable aof,仅靠master-slave repllcation 实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果master/slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个master/slave中的rdb文件,载入较新的那个,微博就是这种架构。

Redis 发布订阅

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:

img

当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:

img

图片来源:菜鸟教程

Redis 发布订阅命令

下表列出了 redis 发布订阅常用命令:

序号命令及描述
1[PSUBSCRIBE pattern pattern …] 订阅一个或多个符合给定模式的频道。
2[PUBSUB subcommand argument [argument …]] 查看订阅与发布系统状态。
3PUBLISH channel message 将信息发送到指定的频道。
4[PUNSUBSCRIBE pattern [pattern …]] 退订所有给定模式的频道。
5[SUBSCRIBE channel channel …] 订阅给定的一个或多个频道的信息。
6[UNSUBSCRIBE channel [channel …]] 指退订给定的频道。
实例

假设我们现在订阅一个go-blog的公众号,以下是订阅公众号:

27.0.0.1:6379> SUBSCRIBE go-blog # 设置一个sub(订阅端频道)等待推送
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "go-blog"
3) (integer) 1

当作者向公众号发布博客时:

127.0.0.1:6379> PUBLISH go-blog "go底层原理之map" # 将消息推送到sub(发送端)推送消息
(integer) 1

此时订阅该频道的所有订阅者都会收到:

1) "message" # 消息
2) "go-blog" # 那个频道的消息
3) "go底层原理之map" # 消息的具体内容
原理

redis是使用c实现的,通过分析redis源码里的pubsub.c文件,了解发布和订阅机制的底层实现,以此加深对redis的理解。

redis通过publish、subscribe和psubscribe等命令实现发布和订阅功能。

通过subscribe命令订阅某频道后,redis-server里维护了一个字典,字典的键就是一个个channel,而字典的值则是一个链表,链表中保存了所有订阅这个channel的客户端。subscribe命令的关键,就是将客户端添加到给定channel的订阅链表中。

通过publish命令向订阅者发送消息,redis-server会使用给定的频道作为键,在它所维护的channel字典中查找记录了订阅这个频道的所有客户端的链表,遍历这个链表,将消息发布给所有订阅者。

pub/sub从字面上理解就是发布(publish)与订阅(subscribe),在redis中,你可以设定对某一个key值进行消息发布及消息订阅,当一个key值上进行了消息发布后,所有订阅它的客户端都会收到相应的消息。这一功能最明显的用法就是用作实时消息系统,比如普通的即时聊天,群聊等功能

如果需要更专业的场景就需要使用MQ来做了。

redis主从复制

主从复制模型

下图为一个最简单的主从复制模型,如图所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-azeTz0pJ-1680794999808)(https://ts1.cn.mm.bing.net/th/id/R-C.8e63e3172a522df7ac5fe026868aad24?rik=azhUlL%2b2VaMBPw&riu=http%3a%2f%2fwww.soolco.com%2fgroup1%2fM00%2f0F%2f44%2frBAADF_FqFuACrQiAADW4spGOE4519.jpg&ehk=g02wwFzwo9h1WRre3T0TPc76cMEMsOEmE6zbyN3zSic%3d&risl=&pid=ImgRaw&r=0)]

这样可以实现读写分离,提高redis服务效率,并且一般情况我们的redis服务都是多读少写,当有节点挂了,其他节点可以即使顶上,不至于整个系统崩掉。

环境配置

这里我们以最简单的一主二从模型(一台主redis服务器,两台从redis服务器),主服务器只负责写数据,从服务器只负责读读数据,这样就实现了读写分离,提高redis服务的效率。

搭建redis集群(一主二从)
  • 这里我们以一主二从为例,将redis配置redis.conf文件复制3份,分别打开配置文件进行修改

    • 修改需要占用的端口(例如,6379,6380,6381)
    • 守护进程名称:pid名字
    • 修改log文件名字
    • dump.rdb名字
  • 配置主节点和从节点

    • 默认情况下每一台服务器都是主节点,所以我们只需要配置从节点即可

    • 启动这三台服务器后,连接客户端,使用如下命令,就可以将当前服务作为从节点

      slaveof 127.0.0.1 6379 # 成为127.0.0.1下的6379端口的redis从机 (认老大)
      

      但是这样设置并不是持久的,所以最好的方法是直接在配置文件修改:

      # replicaof <masterip> <masterport>
      
      # If the master is password protected (using the "requirepass" configuration
      # directive below) it is possible to tell the replica to authenticate before
      # starting the replication synchronization process, otherwise the master will
      # refuse the replica request.
      #
      # masterauth <master-password>
      #
      # However this is not enough if you are using Redis ACLs (for Redis version
      # 6 or greater), and the default user is not capable of running the PSYNC
      # command and/or other commands needed for replication. In this case it's
      # better to configure a special user to use with replication, and specify the
      # masteruser configuration as such:
      #
      # masteruser <username>
      

      需要修改以下内容:

      replicaof <masterip> <masterport>  #主节点ip和端口
      
      masterauth <master-password>   #如果主节点有密码需要填写密码
      
      masteruser <username>     #主节点服务器名称,没有可以不写
      

      这样redis服务简单的集群就搭建好了,最后启动这三个redis服务就完成。

  • 测试主从节点

    可以使用命令查看当前节点的状态:

    127.0.0.1:6379> info replication #查看当前库信息
    # Replication
    role:master # 角色
    connected_slaves:2 # 从机连接数
    slave0:ip=127.0.0.1,port=6380,state=online,offset=196,lag=1  #从节点1信息
    slave1:ip=127.0.0.1,port=6381,state=online,offset=196,lag=0	 #从节点2信息
    master_replid:247657a033cdaaaa7d35a9a8794d326d4a2kke1c
    master_replid2:0000000000000000000000000000000000000000
    master_repl_offset:0
    second_repl_offset:-1
    repl_backlog_active:0
    repl_backlog_size:1048576
    repl_backlog_first_byte_offset:0
    repl_backlog_histlen:0
    

这样我们可以去做一些实验,在主服务器上写入数据,然后我们可以在丛服务器上获取到相应的值,但是我们加入在丛服务器上写入值,这是不被允许的

细节:主机可以写,从机只能读,主机中的所有信息和数据,都会自动被从机保存

复制原理

slave 启动成功连接到master后会发送一个sync同步命令

Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。

全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。

增量复制:master继续将新的所有收集到的修改命令依次传给slave,完成同步

但只要重新连接master,一次完全同步(全量复制)将被自动执行。

当我们的主机挂掉时,没有哨兵模式的时候,需要手动的去在丛节点中选取老大(主机)我们需要手动的使用命令,在当前redis客户端下输入:

slaveof no one

slaveof no one取消从机模式,成为主机模式

哨兵模式

哨兵模式简单的说就是在丛节点中选取主节点(选谁当老大)

主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,更多时候我们优先考虑哨兵模式。redis从2.8开始正式提供了sentinel(哨兵)架构来解决这个问题

哨兵模式是一个特殊的模式,首先redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行,其原理是哨兵通过发送命令,等待redis服务器响应,从而监控运行的多个redis实例

为什么要有哨兵机制?

哨兵机制的出现是为了解决主从复制的缺点的!再这谈谈redis的主从复制的缺点:

  • 主从复制,若主节点出现问题,则不能提供服务,需要人工修改配置将从变主

  • 主从复制主节点的写能力单机,能力有限

  • 单机节点的存储能力也有限

哨兵机制的特点:

  • 哨兵机制(sentinel)的高可用

    发现和转移故障,并通知应用方

  • 哨兵的定时监控任务

    客观下线: 当主观下线的节点是主节点时,此时该当前哨兵节点会通过指令sentinel is-masterdown-by-addr寻求其它哨兵节点对主节点的判断,当超过quorum(选举)个数,此时哨兵节点则认为该主节点确实有问题,这样就客观下线了,大部分哨兵节点都同意下线操作,也就说是客观下线

  • 领导者哨兵选举流程

    • 每个在线的哨兵节点都可以成为领导者,当它确认(比如哨兵3)主节点下线时,会向其它哨兵发is-master-down-by-addr命令,征求判断并要求将自己设置为领导者,由领导者处理故障转移;

    • 当其它哨兵收到此命令时,可以同意或者拒绝它成为领导者;

    • 如果哨兵3发现自己在选举的票数大于等于num(sentinels)/2+1时,将成为领导者,如果没有超过,继续选举…………

redis哨兵的作用

  • 监控主数据库和从数据库是否正常运行。

  • 主数据库出现故障时,可以自动将从数据库转换为主数据库,实现自动切换。

模型

如下图:

单节点哨兵

哨兵集群:

哨兵模式的配置

这里我们以单节点哨兵为例,目前我们的状态是redis集群仍然是一个一主二从的模型(79, 80, 81端口)

  • 我们需要在redis配置文件sentinel.conf文件中,进行修改

    # sentinel monitor <master-name> <ip> <redis-port> <quorum>
    #
    # Tells Sentinel to monitor this master, and to consider it in O_DOWN
    # (Objectively Down) state only if at least <quorum> sentinels agree.
    #
    # Note that whatever is the ODOWN quorum, a Sentinel will require to
    # be elected by the majority of the known Sentinels in order to
    # start a failover, so no failover can be performed in minority.
    #
    # Replicas are auto-discovered, so you don't need to specify replicas in
    # any way. Sentinel itself will rewrite this configuration file adding
    # the replicas using additional configuration options.
    # Also note that the configuration file is rewritten when a
    # replica is promoted to master.
    #
    # Note: master name should not include special characters or spaces.
    # The valid charset is A-z 0-9 and the three characters ".-_".
    sentinel monitor mymaster 127.0.0.1 6379 2
    
    # sentinel auth-pass <master-name> <password>
    #
    

    修改:

    #被监控主机名(可以随便命名),被监控节点ip,被监控端口
    sentinel monitor <master-name> <ip> <redis-port> <quorum>
    #sentinel monitor myredis 127.0.0.1 6379 1
    

    最后一个quorum如果等于1,就代表如果主机挂了,会投票选择一个节点作为主节点。

  • 启动哨兵

    redis-sentinel /sentinel.cof
    

    最后输出我们会发现,哨兵进程会输出关于主机的日志并且也会发现一下从机的信息,当主机下线后,6380端口和6381端口的两个其中之一会变成主节点,一段时间后,原主节点上线后也只能做新主节点的从节点。

配置哨兵集群

如果要配置哨兵集群,方法和redis集群配置类似,配置文件中需要添加各个哨兵的端口,可参考:redis哨兵集群配置

Redis的缓存击穿和雪崩

缓存穿透

首先我们要知道,当一个请求加入我们的系统之后,他先去我们的缓存中查找数据,如果缓存中发现没有,那就必须去持久化的数据库中(例如:mysql)查找,然后返回。

缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中,于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透

例子:

对于系统A,假设一秒 5000 个请求,结果其中 4000 个请求是黑客发出的恶意攻击。

黑客发出的那 4000 个攻击,缓存中查不到,每次你去数据库里查,也查不到。

例如:数据库 id 是从 1 开始的,结果黑客发过来的请求 id 全部都是负数。这样的话,缓存中不会有,请求每次都“视缓存于无物”,直接查询数据库。这种恶意攻击场景的缓存穿透就会直接把数据库给打死。

解决方案
写空值到缓存

解决方式很简单,每次系统 A 从数据库中只要没查到,就写一个空值到缓存里去,比如 set -999 UNKNOWN。然后设置一个过期时间,这样的话,下次有相同的 key 来访问的时候,在缓存失效之前,都可以直接从缓存中取数据。

使用过滤器

将不合法的过滤掉

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Tmtq4BjP-1680794999812)(https://ts1.cn.mm.bing.net/th/id/R-C.54689bc1cbebd87c49cfd04ad711575b?rik=uuz4oPv8BkJ5mA&riu=http%3a%2f%2fblog.laofu.online%2fimg%2f布隆过滤器.assets%2fimage-20201103224722146.png&ehk=7wG%2fXo9HlPyJZKfuYbcyZ4AkCv7%2fTNONl3w6sVDvO4c%3d&risl=&pid=ImgRaw&r=0)]

缓存击穿

这里需要注意和缓存穿透的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对一个点进行访问,当这个key在失效的瞬间,持续的大并发就会穿破缓存,直接请求数据库,就像在屏障上凿开了一个洞。

当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导致数据库瞬间压力过大。

解决方案
设置热点数据永不过期

从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题

加互斥锁

分布式锁:使用分布式锁,保证对每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。

缓存雪崩

前面已经聊过缓存击穿问题了。

而缓存雪崩是缓存击穿的升级版,缓存击穿说的是某一个热门key失效了,而缓存雪崩说的是有多个热门key同时失效。看起来,如果发生缓存雪崩,问题更严重。

缓存雪崩目前有两种:

  1. 有大量的热门缓存,同时失效。会导致大量的请求,访问数据库。而数据库很有可能因为扛不住压力,而直接挂掉。
  2. 缓存服务器down机了,可能是机器硬件问题,或者机房网络问题。总之,造成了整个缓存的不可用。

归根结底都是有大量的请求,透过缓存,而直接访问数据库了。

对于系统 A,假设每天高峰期每秒 5000 个请求,本来缓存在高峰期可以扛住每秒 4000 个请求,但是缓存机器意外发生了全盘宕机。缓存挂了,此时 1 秒 5000 个请求全部落数据库,数据库必然扛不住,它会报一下警,然后就挂了。此时,如果没有采用什么特别的方案来处理这个故障,DBA 很着急,重启数据库,但是数据库立马又被新的流量给打死了。

解决方案
redis高可用

redis既然可能挂掉,那就多部署几台redis服务器,搭建集群,异地多活

限流降级

用户发送一个请求,系统 A 收到请求后,先查本地 ehcache 缓存,如果没查到再查 redis。如果 ehcache 和 redis 都没有,再查数据库,将数据库中的结果,写入 ehcache 和 redis 中。

缓存失效后,通过加锁或者队列的方式来控制对数据库的访问的线程数量或者限流组件,可以设置每秒的请求,有多少能通过组件,剩余的未通过的请求,怎么办?走降级!可以返回一些默认的值,或者友情提示,或者空白的值。至少整个系统不会崩掉。

过期时间加随机数

为了解决缓存雪崩问题,我们首先要尽量避免缓存同时失效的情况发生。

这就要求我们不要设置相同的过期时间。

可以在设置的过期时间基础上,再加个1~60秒的随机数。

实际过期时间 = 过期时间 + 1~60秒的随机数

这样即使在高并发的情况下,多个请求同时设置过期时间,由于有随机数的存在,也不会出现太多相同的过期key。

数据预热

缓存冷启动就是缓存中没有数据,由于缓存冷启动一点数据都没有,如果直接就对外提供服务了,那么并发量上来mysql就裸奔挂掉了。
因此需要通过缓存预热的方案,提前给 redis 灌入部分数据后再提供服务。

缓存预热如字面意思,当系统上线时,缓存内还没有数据,如果直接提供给用户使用,每个请求都会穿过缓存去访问底层数据库,如果并发大的话,很有可能在上线当天就会宕机,因此我们需要在上线前先将数据库内的热点数据缓存至Redis内再提供出去使用,这种操作就成为"缓存预热"。

缓存预热的实现方式有很多,比较通用的方式是写个批任务,在启动项目时或定时去触发将底层数据库内的热点数据加载到缓存内。

参考内容

说明

本文主要是在B站看了up主B站up主-狂神说Java的redis课程来写的,所以很多的内容都是一边学一变进行记录并添加自己对相关知识的理解,课程中老师使用了java来对redis进行操作,由于本人对golang比较熟,不熟悉java,所以使用的是golang来操作redis。其中部分内容是在码神之路作者的相关博客和官网文档做了参考,在这里首先要感谢狂神老师的教学,也感谢码神之路的文章做参考,希望大家可以对两位大佬进行关注和支持。

参考

B站up主-狂神说Java

码神之路

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Redis 是一个开源的内存数据库,以其高性能和灵活的数据结构而闻名。《Redis 入门到精通》是一本介绍 Redis 使用和深入学习的书籍,适合有一定编程基础的开发者或对数据库有一定了解的人士。 这本书从介绍 Redis 的概述和安装入手,帮助读者了解 Redis 的基本概念和使用方法。接着,书中详细介绍了 Redis 中常用的数据结构,如字符串、列表、哈希、集合和有序集合,并提供了示例代码和运用场景,让读者能够深入理解这些数据结构的使用和特点。 此外,书中还介绍了 Redis 的高级特性和应用,如发布-订阅模式、事务、持久化、复制等。这些内容帮助读者进一步了解 Redis 的技术原理和性能优势,帮助开发者更好地应用 Redis 解决实际问题。 《Redis 入门到精通》还包括了性能优化、监控和故障处理等实用的内容,读者可以学习如何配置和优化 Redis 以提升系统性能,并学习如何排查和解决常见故障。 总体而言,《Redis 入门到精通》是一本全面介绍和学习 Redis 的实用书籍,通过深入浅出的讲解和实例,帮助读者从入门到精通 Redis,并能够灵活运用 Redis 解决实际问题。无论是想要了解 Redis 的基础知识还是深入学习 Redis 的高级特性,都可以从这本书中获得帮助和指导。 ### 回答2: Redis(Remote Dictionary Server)是一个开源的、基于键值对的存储系统。它以其高性能、易使用和丰富的功能而备受推崇。《Redis入门到精通》PDF是一本针对Redis学习资料,从入门到深入掌握Redis的各个方面进行了详细介绍。 这本书首先介绍了Redis的基本概念和原理,包括键值对存储、数据类型、持久化等核心概念。然后,它深入讲解了Redis的各种高级功能,如发布订阅、事务、Lua脚本等。此外,书中还包含了丰富的示例代码和实际应用场景,帮助读者更好地理解和应用Redis。 《Redis入门到精通》PDF适合各个层次的读者。对于初学者,它提供了系统全面的入门指导,从安装配置开始,一步步引导读者熟悉和掌握Redis的使用。对于有一定经验的开发者,它提供了高级特性和实战案例,让读者深入了解Redis的内部机制和最佳实践。 此外,这本书还介绍了Redis的性能调优和集群部署等内容,帮助读者在实际应用中充分发挥Redis的潜力。无论是Web应用的缓存、消息队列还是实时数据分析,Redis都应该是开发者的首选。 总之,《Redis入门到精通》PDF是一本权威而实用的Redis学习资料,通过系统而全面的介绍,帮助读者从入门到精通Redis,更好地应用Redis解决实际问题。无论是初学者还是有经验的开发者,都可以从中获益匪浅。 ### 回答3: 《Redis 入门到精通》是一本介绍 Redis 数据库的权威指南。Redis 是一种高性能、可扩展的键值存储系统,常用于缓存、消息队列、实时统计和分布式会话管理等领域。 该书从 Redis 的基础概念入手,包括安装配置、数据结构、持久化、集群部署等内容,帮助读者快速上手 Redis。接着介绍了 Redis 的高级功能,例如发布订阅、事务、Lua 脚本编写、并发控制等,让读者深入了解 Redis 的各种用法和技巧。 《Redis 入门到精通》还涵盖了 Redis 在实际应用中的最佳实践,包括如何优化性能、如何设计和实现分布式系统等。此外,书中还介绍了常见的 Redis 开源工具和框架,如 Redisson、Spring Data Redis 等,帮助读者更好地利用 Redis 构建高效的应用程序。 该书内容丰富、结构清晰,适合初学者和有一定经验的开发人员。无论是想快速上手 Redis,还是想深入学习 Redis 的高级用法,本书都能提供详细的指导和实例演示。 总之,通过阅读《Redis 入门到精通》这本书,读者可以系统地学习和掌握 Redis 数据库的各个方面,从入门到精通。无论是作为开发人员、DBA 还是系统架构师,都能在实际工作中充分发挥 Redis 强大的功能和性能优势。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值