redis学习笔记(基础)

Redis简介

Redis是一个开源(BSD许可),内存存储的数据结构服务器,可用作数据库,高速缓存和消息队列代理。它支持字符串、哈希表、列表、集合、有序集合,位图,hyperloglogs等数据类型。内置复制、Lua脚本、LRU收回、事务以及不同级别磁盘持久化功能,同时通过Redis Sentinel提供高可用,通过Redis Cluster提供自动分区。

ubuntu18.04安装redis教程

1.五大数据类型

1.Redis-key

  • set x y :设置键和值
  • exists key:判断键是否存在
  • del key:删除键值对
  • move key db:将键值对移动到指定数据库
  • expire key second:设置键值对的过期时间
  • type key:查看value的数据类型
127.0.0.1:6379> keys * # 查看当前数据库所有key
(empty list or set)
127.0.0.1:6379> set name qinjiang # set key
OK
127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> keys *
1) "age"
2) "name"
127.0.0.1:6379> move age 1 # 将键值对移动到指定数据库
(integer) 1
127.0.0.1:6379> EXISTS age # 判断键是否存在
(integer) 0 # 不存在
127.0.0.1:6379> EXISTS name
(integer) 1 # 存在
127.0.0.1:6379> SELECT 1
OK
127.0.0.1:6379[1]> keys *
1) "age"
127.0.0.1:6379[1]> del age # 删除键值对
(integer) 1 # 删除个数


127.0.0.1:6379> set age 20
OK
127.0.0.1:6379> EXPIRE age 15 # 设置键值对的过期时间

(integer) 1 # 设置成功 开始计数
127.0.0.1:6379> ttl age # 查看key的过期剩余时间
(integer) 13
127.0.0.1:6379> ttl age
(integer) 11
127.0.0.1:6379> ttl age
(integer) 9
127.0.0.1:6379> ttl age
(integer) -2 # -2 表示key过期,-1表示key未设置过期时间

127.0.0.1:6379> get age # 过期的key 会被自动delete
(nil)
127.0.0.1:6379> keys *
1) "name"

127.0.0.1:6379> type name # 查看value的数据类型
string

2.String

127.0.0.1:6379> set key1 v1  # 设置值
OK
127.0.0.1:6379> get key1       # 获取值
"v1"
127.0.0.1:6379> keys *        # 获取所有的值
1) "name"
2) "age"
3) "key1"
127.0.0.1:6379> exists key1      # 判断某一个值是否存在
(integer) 1
127.0.0.1:6379> append key1 hello	#追加字符串,如果当前 key 不存在,就相当于 set key
(integer) 7
127.0.0.1:6379> get key1
"v1hello"
127.0.0.1:6379> strlen key1	#获取字符串的长度
(integer) 7
127.0.0.1:6379> append key1 ,kuangshen
(integer) 17
127.0.0.1:6379> get key1
"v1hello,kuangshen"
#####################################################################################
# i++
# 步长 i+=

127.0.0.1:6379> set views 0	#浏览量初始为0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views	#自增1	浏览量为1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views	#自减1
(integer) 1
127.0.0.1:6379> decr views
(integer) 0
127.0.0.1:6379> decr views
(integer) -1
127.0.0.1:6379> get views
"-1"
127.0.0.1:6379> incrby views 10	#可以设置步长,指定增量
(integer) 9
127.0.0.1:6379> incrby views 10
(integer) 19
127.0.0.1:6379> decrby views 10
(integer) 9
#####################################################################################
字符串范围:range

127.0.0.1:6379> set key1 hello,kuangshen
OK
127.0.0.1:6379> get key1
"hello,kuangshen"
127.0.0.1:6379> GETRANGE key1 0 3	# 截取字符串[0,3]
"hell"
127.0.0.1:6379> GETRANGE key1 0 -1	# 获取全部的字符串,和 get key 是一样的
"hello,kuangshen"
# 替换
127.0.0.1:6379> set key2 abcdefg
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> SETRANGE key2 1 xx	# 替换指定位置开始的字符串!
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"
#####################################################################################
setex (set with exprie)  	# 设置过期时间
setnx (set if not exist)	# 不存在再设置	(在分布式锁中会常常用到!)

127.0.0.1:6379> setex key3 30 "hello"	# 设置 key3 的值为 hello,30秒后过期
OK
127.0.0.1:6379> ttl key3
(integer) 26
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey "redis"	# 如果 mykey 不存在,创建 mykey
(integer) 1
127.0.0.1:6379> keys *
1) "mykey"
2) "key2"
3) "key1"
127.0.0.1:6379> setnx mykey "mongoDB" # 如果 mykey 存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"redis"
#####################################################################################
127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3	# 同时设置多个值
OK
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "k1"
127.0.0.1:6379> mget k1 k2 k3	# 同时获取多个值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k4 v4	# msetnx 是一个原子性操作,要么一起成功,要么一起失败!
(integer) 0
127.0.0.1:6379> get k4
(nil)

对象
set user:1 {name:zhangsan,age:3}	# 设置一个 user:1 对象,值为 json 字符来保存一个对象

这里的 key 是一个巧妙的设计:user:{id}:{filed},如此设计在 Redis 中是完全Ok的

127.0.0.1:6379> mset user:1:name zhangsan user:1:age 2
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "2"

#####################################################################################
getset:先 get 再 set

127.0.0.1:6379> getset db redis	# 如果不存在值,则返回 nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mongodb # 如果存在值,获取原来的值,并设置新的值
"redis"
127.0.0.1:6379> get db
"mongodb"

  • String 类似的使用场景:value 除了可以是我们的字符串还可以是我们的数字
    • 计数器
    • 统计多单位的数量
    • 粉丝数
    • 对象缓存存储

3.List

127.0.0.1:6379> LPUSH list one	# 将一个值或者多个值,插入到列表头部(左)
(integer) 1
127.0.0.1:6379> LPUSH list two
(integer) 2
127.0.0.1:6379> LPUSH list three
(integer) 3
127.0.0.1:6379> LRANGE list 0 -1	# 获取 list 中的值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
127.0.0.1:6379> rpush list right	# 将一个值或者多个值,插入到列表尾部(右)
(integer) 4
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
#####################################################################################

LPOP
RPOP

127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lpop list	# 移除 list 的第一个元素
"three"
127.0.0.1:6379> rpop list	# 移除 list 的最后一个元素
"right"
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
#####################################################################################
Lindex

127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
127.0.0.1:6379> lindex list 1	# 通过下标获得 list 中的某一个值
"one"
127.0.0.1:6379> lindex list 0
"two"
#####################################################################################

Llen

127.0.0.1:6379> LPush list one
(integer) 1
127.0.0.1:6379> LPush list two
(integer) 2
127.0.0.1:6379> LPush list three
(integer) 3
127.0.0.1:6379> Llen list	# 返回列表的长度
(integer) 3
#####################################################################################
移除指定的值:
取关:uid
lrem

127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
4) "one"
127.0.0.1:6379> lrem list 1 one 	# 移除 list 集合中指定个数的 value,精确匹配
(integer) 1
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "three"
3) "two"
127.0.0.1:6379> lrem list 2 three 
(integer) 2
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
#####################################################################################
trim 修剪:list 截断

127.0.0.1:6379> RPush mylist hello
(integer) 1
127.0.0.1:6379> RPush mylist hello1
(integer) 2
127.0.0.1:6379> RPush mylist hello2
(integer) 3
127.0.0.1:6379> RPush mylist hello3
(integer) 4
127.0.0.1:6379> ltrim mylist 1 2	# 通过下标,截取(保留)指定范围内的内容,这个 list 已经改变了
OK
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello1"
2) "hello2"
#####################################################################################
rpoplpush 移除列表的最后一个元素,将它移动到新的列表中

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist hello1
(integer) 2
127.0.0.1:6379> rpush mylist hello2
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist
"hello2"
127.0.0.1:6379> lrange mylist 0 -1	# 查看原来的列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1	# 查看目标列表,新值确实存在
1) "hello2"

#####################################################################################
lset 将列表中指定下标的值替换为另外一个值,更新操作

127.0.0.1:6379> exists list		# 判断这个列表是否存在
(integer) 0
127.0.0.1:6379> lset list 0 item	# 如果不存在列表我们去更新就会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value1
(integer) 1
127.0.0.1:6379> lrange list 0 0
1) "value1"
127.0.0.1:6379> lset list 0 item	# 如果存在,更新当前下标的值
OK
127.0.0.1:6379> lrange list 0 0
1) "item"
127.0.0.1:6379> lset list 1 other
(error) ERR index out of range

#####################################################################################
linsert :将某个具体的 value 插入到列表中,某个元素的前面或者后面

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist world
(integer) 2
127.0.0.1:6379> linsert mylist before world other
(integer) 3
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
127.0.0.1:6379> Linsert mylist after world new
(integer) 4
127.0.0.1:6379> LRANGE mylist 0 -1
1) "hello"
2) "other"
3) "world"
4) "new"

小结

  • list实际上是一个链表,before Node after , left, right 都可以插入值

  • 如果key不存在,则创建新的链表

  • 如果key存在,新增内容

  • 如果移除了所有值,空链表,也代表不存在

  • 在两边插入或者改动值,效率最高!修改中间元素,效率相对较低

4.Set

127.0.0.1:6379> sadd myset hello	# set集合中添加元素
(integer) 1
127.0.0.1:6379> sadd myset kuangshen
(integer) 1
127.0.0.1:6379> sadd myset lovekuangshen
(integer) 1
127.0.0.1:6379> smembers myset	# 查看指定set的所有值
1) "lovekuangshene"
2) "kuangshen"
3) "hello"
127.0.0.1:6379> sismember myset hello	# 判断某一个值是不是在set集合中
(integer) 1
127.0.0.1:6379> sismember myset world
(integer) 0
#####################################################################################
scard

127.0.0.1:6379> scard myset		# 获取set集合中的内容元素个数
(integer) 3
#####################################################################################

srem:移除set集合中的指定元素

127.0.0.1:6379> srem myset hello
(integer) 1
127.0.0.1:6379> scard myset
(integer) 2
127.0.0.1:6379> smembers myset
1) "lovekuangshene"
2) "kuangshen"
#####################################################################################

set 是无序不重合集合
srandmember 抽随机

127.0.0.1:6379> sadd myset  penge
(integer) 1
127.0.0.1:6379> sadd myset  penge666
(integer) 1
127.0.0.1:6379> sadd myset  penge520
(integer) 1
127.0.0.1:6379> smembers myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> srandmember myset  # 随机抽1个
"penge520"
127.0.0.1:6379> srandmember myset 2  # 随机抽指定个数
1) "penge520"
2) "penge"
127.0.0.1:6379> 

#####################################################################################
spop:删除指定的key,随机删除key

127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
3) "penge666"
127.0.0.1:6379> spop myset
"penge666"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379> 
#####################################################################################
smove:将一个指定的值,移动到另外一个集合中


127.0.0.1:6379> sadd myset1 hello
(integer) 1
127.0.0.1:6379> sadd myset1 world
(integer) 1
127.0.0.1:6379> SMEMBERS myset1
1) "world"
2) "hello"
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
2) "penge"
127.0.0.1:6379> smove myset myset1 pengge
(integer) 0
127.0.0.1:6379> smove myset myset1 penge
(integer) 1
127.0.0.1:6379> SMEMBERS myset
1) "penge520"
127.0.0.1:6379> SMEMBERS myset1
1) "penge"
2) "world"
3) "hello"
#####################################################################################

微博,B站,共同关注(并集)
数字集合类:
- 差集 SDIFF:sdiff key1 key2,显示出 key1 中,key2 没有的元素
- 交集 SINTER:
- 并集 SUNION:


5.Hash

Map 集合,结构为key-map。此时这个值是一个 map 集合,本质和 String 类型没有太大区别,还是一个简单的 key-value
set myhash field kuangshen

127.0.0.1:6379> hset myhash field1 kuangshen	# set 一个具体的 key-value
(integer) 1
127.0.0.1:6379> hget myhash field1
"kuangshen"
127.0.0.1:6379> hmset myhash field1 hello field2 world
OK
127.0.0.1:6379> hmget myhash field1 field2
1) "hello"
2) "world"
127.0.0.1:6379> hgetall myhash	# 获取全部的数据
1) "field1"
2) "hello"
3) "field2"
4) "world"
127.0.0.1:6379> hdel myhash field1	# 删除hash指定key字段!对应的value值也就消失了
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"

#####################################################################################

# hlen 
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
3) "field1"
4) "hello"
127.0.0.1:6379> hlen myhash	# 获取hash表的字段数量
(integer) 2
#####################################################################################
127.0.0.1:6379> hexists myhash field1	# 判断hash中指定字段是否存在
(integer) 1
127.0.0.1:6379> hexists myhash field3
(integer) 0

#####################################################################################
127.0.0.1:6379> hkeys myhash	# 只获取所有field
1) "field2"
2) "field1"
127.0.0.1:6379> hvals myhash	# 只获取所有value
1) "world"
2) "hello"

#####################################################################################
incrby (注意:没有decrby,使用 incrby -1 代替)

127.0.0.1:6379> hset myhash field3 5
(integer) 1
127.0.0.1:6379> hincrby myhash field3 1
(integer) 6
127.0.0.1:6379> hincrby myhash field3 -1
(integer) 5
127.0.0.1:6379> hdecrby myhash field3 1
(error) ERR unknown command `hdecrby`, with args beginning with: `myhash`, `field3`, `1`, 
127.0.0.1:6379> hsetnx myhash field4 hello
(integer) 1
127.0.0.1:6379> hsetnx myhash field4 world
(integer) 0

应用

  • 使用 hash 变更数据:user,name,age。尤其是用户信息之类的,经常变动的信息!
  • hash 更适合对象的存储,String 更适合字符串的存储

6.Zset

在 set 的基础上(set k1 v1),增加了一个值:zset k1 score1 v1

127.0.0.1:6379> zadd myset 1 one
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three
(integer) 2
127.0.0.1:6379> ZRANGE myset 0 -1
1) "one"
2) "two"
3) "three"

#####################################################################################
排序如何实现
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
127.0.0.1:6379> zadd salary 50000 kuangshen
(integer) 1
127.0.0.1:6379> zrangebyscore salary -inf +inf	# 从小到大
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrangebyscore salary +inf -inf
(empty array)
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores	# 从小到大,附带信息
1) "xiaohong"
2) "2500"
3) "zhangsan"
4) "5000"
5) "kuangshen"
6) "50000"
127.0.0.1:6379> zrangebyscore salary -inf 2500 withscores	# 显示工资小于200的员工进行升序排序
1) "xiaohong"
2) "2500"
127.0.0.1:6379> zrevrangebyscore salary +inf -inf	# 从大到小,降序排序
1) "kuangshen"
2) "zhangsan"
3) "xiaohong"

#####################################################################################
127.0.0.1:6379> zrange salary 0 -1
1) "xiaohong"
2) "zhangsan"
3) "kuangshen"
127.0.0.1:6379> zrem salary xiaohong
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "zhangsan"
2) "kuangshen"
127.0.0.1:6379> zcard salary	# 获取有序集合中的个数
(integer) 2


#####################################################################################
获取指定区间内的成员数量

127.0.0.1:6379> zadd myset 1 hello 2 world 3 kuangshen
(integer) 3
127.0.0.1:6379> zcount myset 1 3
(integer) 3
127.0.0.1:6379> zcount myset 1 2
(integer) 2

2.三种特殊数据类型

1.geospatial

Redis 在 3.2 版本中加入了地理空间(geospatial)以及索引半径查询的功能,主要用在需要地理位置的应用上。将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中,这些数据将会存储到 sorted set。这样的目的是为了方便使用 GEORADIUS 或者 GEORADIUSBYMEMBER 命令对数据进行半径查询等操作。也就是说,推算地理位置的信息,两地之间的距离,周围方圆的人等等场景都可以用它实现。

小结:geo 底层是使用 zset来实现

6个命令

1.getadd

可以将指定的地理空间位置(经度、纬度、名称)添加到指定的 key 中。

127.0.0.1:6379> geoadd china:city 116.30 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen
(integer) 2
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou 108.96 34.26 xian
(integer) 2

注意:南北极无法直接添加。用添加城市数据来说,一般都会使用Java的Jedis来操作,而这些城市数据都是被下载下来通过JavaAPI调用。

2.getpos

获得当前定位:返回一个坐标值

127.0.0.1:6379> geopos china:city beijing
1) 1) "116.30000084638595581"
   2) "39.90000009167092543"
127.0.0.1:6379> geopos china:city chongqing
1) 1) "106.49999767541885376"
   2) "29.52999957900659211"

3.geodist

  • 两人之间的距离
  • 指定单位的参数 unit 必须是以下单位的其中一个:
m 表示单位为米。
km 表示单位为千米。
mi 表示单位为英里。
ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai
"1071277.5456"
127.0.0.1:6379> geodist china:city beijing shanghai km
"1071.2775"
127.0.0.1:6379> geodist china:city beijing chongqing km
"1458.4830"

4.georadius

georadius:以给定的经纬度为中心,找出某一半径内的元素

我附近的人?(获得所有附近的人的地址,定位)通过半径来查询
获得指定数量的人
所有数据应该都录入:china:city,才会让结果更加精确
127.0.0.1:6379> georadius china:city 110 30 1000 km		# 以 110,30 这个经纬度为中心,寻找方圆1000km以内的城市
1) "chongqing"
2) "xian"
3) "shenzhen"
4) "hangzhou"
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqing"
2) "xian"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist		# 显示到中间位置的距离
1) 1) "chongqing"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"
127.0.0.1:6379> georadius china:city 110 30 500 km withcoord	# 显示他人的定位信息
1) 1) "chongqing"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1	# 筛选出指定的结果
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 2
1) 1) "chongqing"
   2) "341.9374"
   3) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) "483.8340"
   3) 1) "108.96000176668167114"
      2) "34.25999964418929977"

4.GEORADIUSBYMEMBER

GEORADIUSBYMEMBER:找出位于指定元素周围的其他元素!

# 找出以shanghai为中心,1000km为半径搜索
127.0.0.1:6379> GEORADIUSBYMEMBER china:city shanghai 1000 km 
1) "xiamen"
2) "fuzhou"
3) "shanghai"

2.Hyperloglog

  • Redis HyperLogLog 是用来做基数统计的算法

  • 优点:占用的内存是固定的,只需要花费 12KB 的内存,就可以计算 264个不同元素的基数。

  • 如果要从内存角度来比较的话,Hyperloglog 就是首选!

    • 网页的访问量(UV):一个用户访问一个网站多次,但还是算作一个人。

    • PV(page view):页面浏览量,UV(unique visitor):网站独立访客

    • 传统的方式,set 保存用户的 id,然后就可以统计 set 中的元素数量作为标准判断

    • 这个方式如果保存大量的用户id,就会比较麻烦!但我们的目的是为了计数,而不是保存用户id

    • 0.81% 错误率,统计 UV 任务,可以忽略不计

127.0.0.1:6379> PFadd mykey a b c d e f g h i j
(integer) 1
127.0.0.1:6379> PFcount mykey	# 统计 mykey 的元素的基数数量
(integer) 10
127.0.0.1:6379> PFadd mykey2 i j z x c v b n m
(integer) 1
127.0.0.1:6379> PFcount mykey2
(integer) 9
127.0.0.1:6379> pfmerge mykey3 mykey mykey2		# 合并 mykey,mykey2 ===》 mykey3
OK
127.0.0.1:6379> PFcount mykey3	# 统计 mykey3 的元素的基数数量
(integer) 15

如果允许容错,可以使用 Hyperloglog。若不允许,就使用 set 或者自己的数据类型即可。

3.Bitmaps

Bitmaps是一种位存储的数据类型,在Redis2.2.0被推出,

生活中可以实现的场景,统计活跃用户,在线状态,用户签到,这些都是表示两种状态之间的,可以使用Bitmaps.
1.每天打卡
**加粗样式**
2.查看某一天是否有打卡

127.0.0.1:6379> getbit sign 3
(integer) 1
127.0.0.1:6379> getbit sign 6
(integer) 0

3.统计操作,查看-打卡的天数

127.0.0.1:6379> bitcount sign	# 统计这周的打卡记录,就可以知道是否有全勤
(integer) 3

3.事务

Redis事务的本质:一组命令的集合!一个事务中的所有命令都会被序列化,在事务执行过程中,会按照顺序执行!
一次性、顺序性、排他性! 执行一些列的命令

------ 队列 set set set 执行 ------

Redis 事务没有隔离级别的概念

所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行!
Redis 的单条命令是保证原子性的,但是 Redis 事务不能保证原子性

redis 的事务阶段:
	开启事务(multi)
	命令入队(…)
	执行事务(exec) or 取消事务(discard)

异常:
1.编译型异常(代码有问题!命令有错!),事务中所有的命令都不会被执行。
2.运行时异常(1 / 0),如果事务队列中存在语法性错误,那么执行命令时,其它命令是可以正常执行的,错误命令抛出异常。

监控:Watch

  • 悲观锁:
    1.很悲观,无论执行什么操作都会出现问题,所以会对所有的操作加锁
  • 乐观锁
    1.很乐观,任何情况下都不会出问题,所以不会加锁!但是在数据更新时需要判断在此之前是否有人修改过这个数据
    2.可以添加一个字段叫version用来查询
    3.在进行数据更新时对version进行比较
  • 例子
    1.正常交付情况
    watch key …: 对指定key进行监控,监控这个key在事务执行之前是否被修改.
    在这里插入图片描述
    2.不正常交付
    在这里插入图片描述
    解释:在提交之前更改money的值,导致最后exec未成功。
    在这里插入图片描述

UNWATCH的含义:解除所有监控。

4.Jedis

我们要使用 java 来操作 Redis,是 Redis 官方推荐的 java 连接开发工具

1.导入对应的依赖

<!--导入jeris的包-->
<dependency>
	<groupId>redis.clients</groupId>
	<artifactId>jedis</artifactId>
	<version>3.2.0</version>
</dependency>
<!--fastjson-->
<dependency>
	<groupId>com.alibaba</groupId>
	<artifactId>fastjson</artifactId>
	<version>1.2.62</version>
</dependency>

2.连接测试

package com.kuang;
import redis.clients.jedis.Jedis;

public class TestPing {
    public static void main(String[] args) {
        //1.new Jedis 对象即可
        Jedis jedis = new Jedis("127.0.01", 6379);
        //jedis 所有的命令就是我们之前学习的所有指令
        System.out.println(jedis.ping());
    }
}

5.Redis.conf配置文件

1.单位
配置文件对大小写不敏感

在这里插入图片描述
2.包含其他文件
在这里插入图片描述

3.网络

bind 127.0.0.1 # 绑定的ip 
protected-mode yes # 保护模式 
port 6379 # 端口设置

4.通用 【GENERAL】

daemonize yes # 以守护进程的方式运行,默认是 no,我们需要自己开启为yes! 

pidfile /var/run/redis_6379.pid # 如果以后台的方式运行,我们就需要指定一个 pid 文件! 

# 日志 
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境适用
# warning (only very important / critical messages are logged)
loglevel notice

logfile "/usr/local/bin/redis-log.log" # 日志的文件位置名
databases 16 # 数据库的数量,默认是 16 个数据库
always-show-logo yes # 是否总是显示LOGO

5.快照【SNAPSHOTTING】

  • 持久化,在规定的时间内,执行了多少次操作,则会持久化到文件 .rdb 和.aof.
  • redis 是内存数据库,如果没有持久化,那么数据断电即失!
# 如果900s内,如果至少有一个1 key进行了修改,我们就进行持久化操作 
save 900 1 
# 如果300s内,如果至少10 key进行了修改,我们就进行持久化操作 
save 300 10 
# 如果60s内,如果至少10000 key进行了修改,我们就进行持久化操作 
save 60 10000 
# 我们之后学习持久化,会自己定义这个测试!

stop-writes-on-bgsave-error yes # 持久化如果出错,是否还需要继续工作!

rdbcompression yes # 是否压缩 rdb 文件,需要消耗一些cpu资源!

rdbchecksum yes # 保存rdb文件的时候,进行错误的检查校验!

dir ./ # rdb 文件保存的目录!

6.安全【SECURITY】

127.0.0.1:6379> ping 
PONG 
127.0.0.1:6379> config get requirepass # 获取redis的密码 
1) "requirepass" 
2) "" 
127.0.0.1:6379> config set requirepass "123456" # 设置redis的密码 
OK
127.0.0.1:6379> config get requirepass # 发现所有的命令都没有权限了 
(error) NOAUTH Authentication required. 
127.0.0.1:6379> ping 
(error) NOAUTH Authentication required. 
127.0.0.1:6379> auth 123456 # 使用密码进行登录! 
OK
127.0.0.1:6379> config get requirepass 
1) "requirepass" 
2) "123456"

7.限制 【CLIENTS】

maxclients 10000 # 设置能连接上redis的最大客户端的数量 

maxmemory <bytes> # redis 配置最大的内存容量 

maxmemory-policy noeviction # 内存到达上限之后的处理策略 
	1、volatile-lru:只对设置了过期时间的key进行LRU(默认值) 
	2、allkeys-lru : 删除lru算法的key 
	3、volatile-random:随机删除即将过期key 
	4、allkeys-random:随机删除 
	5、volatile-ttl : 删除即将过期的 
	6、noeviction : 永不过期,返回错误

8.aof配置【APPEND ONLY MODE】

appendonly no # 默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分所有的情况下, rdb完全够用!
appendfilename "appendonly.aof" # 持久化的文件的名字

# appendfsync always # 每次修改都会 sync。消耗性能 
appendfsync everysec # 每秒执行一次 sync,可能会丢失这1s的数据! 
# appendfsync no 	 # 不执行 sync,这个时候操作系统自己同步数据,速度最快!

6.Redis 持久化※

  • Redis 是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会消失。所以 Redis 提供了持久化功能!

1、RDB(Redis DataBase)

在这里插入图片描述

  • 在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里。
  • Redis 会单独创建(fork)一个子进程来进行持久化,会将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何 IO 操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那 RDB 方式要比 AOF 方式更加的高效。RDB 的缺点是最后一次持久化后的数据可能丢失。我们默认的就是 RDB,一般情况下不需要修改这个配置!
    rdb保存的文件是dump.rdb都是在我们的配置文件中的快照中进行配置的!

触发机制

1.save 的规则满足的情况下,会自动触发 rdb 规则
2.执行 flushall 命令,也会触发我们的rdb规则!
3.退出 redis,也会产生 rdb 文件!
备份就自动生成一个 dump.rdb

恢复rdb文件!

1.只需要将rdb文件放在我们redis启动目录就可以,redis启动的时候会自动检查dump.rdb 恢复其中
的数据
2.查看需要存在的位置

2、AOF(Append Only File)

  • 利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。
    在这里插入图片描述
    以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件 的内容将写指令从前到后执行一次以完成数据的恢复工作
    【或】
    利用 AOF 持久化将服务器收到的所有写操作命令记录下来,并在服务器重新启动的时候,利用这些命令来恢复数据集。AOF 的命令使用的是与 Redis 本身协议的命令一致,通过追加的方式将数据写入备份文件中,同时当备份文件过大时,Redis 也能对备份文件进行重压缩。

默认是不开启的,需要手动配置!将appendonly改为yes就开启aof!重启 redis就可以生效了!

7.Redis 订阅发布

  • Redis 发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。如:微信、微博、关注系统!
  • Redis 客户端可以订阅任意数量的频道。
  • 订阅/发布消息图:
    第一个:消息发送者, 第二个:频道,第三个:消息订阅者!
    在这里插入图片描述
    clint客户通过channel通道订阅:
    在这里插入图片描述
    当有新消息通过 PUBLISH 命令发送给频道 channel1 时,这个消息就会被发送给订阅它的三个客户端:
    在这里插入图片描述
    常用命令Redis 发布订阅
    在这里插入图片描述
    具体实例:Redis 发布订阅实例

8.主从复制

概念

  1. 主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主,Slave 以读为主。
  2. 默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。

示意图
在这里插入图片描述
1.主从复制,读写分离! 80% 的情况下都是在进行读操作!减缓服务器的压力!架构中经常使用!一主二从!
2.只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis!
作用
1.数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2.故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3.负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写 Redis 数据时应用连接主节点,读 Redis 数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4.高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
注意:单台Redis最大使用内存不应该超过20G
简单配置实例

1.查看当前信息

127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:0   #没有从机
master_replid:afad979a5cfd05af5ffa6fa01102ca86a2f6af6e
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

2.复制3个配置文件,然后修改对应的信息
复制配置文件
在这里插入图片描述
修改配置文件

1、端口
2、pid 名字
3、log文件名字
4、dump.rdb 名字

3.通过ps -ef|grep redis查看进程信息

:默认情况下,每台Redis服务器都是主节点;
设置从机:

127.0.0.1:6380> slaveof 127.0.0.1 6379	# SLAVEOF host 6379 找谁当自己的老大!
OK

特点

  • 真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的!
  • 主机可以写,从机不能写只能读!主机中的所有信息和数据,都会自动被从机保存
  • 主机断开连接,从机是依旧连接到主机的,但是没有写操作。这时,如果主机回来了,从机依旧可以直接获取到主机写的信息
  • 如果是使用命令行,来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值!

复制原理

1.Slave 启动成功连接到 master 后会发送一个sync同步命令
2.Master 接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,并完成一次完全同步。
3.全量复制:slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
4.增量复制:Master 继续将新的所有收集到的修改命令依次传给slave,完成同步
5.但是只要是重新连接master,一次完全同步(全量复制)将被自动执行!我们的数据一定可以在从机中看到!

9.哨兵模式

概念

  • 主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel(哨兵)架构来解决这个问题。
  • 谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库
  • 哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
    在这里插入图片描述

这里的哨兵有两个作用

  • 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
  • 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
    在这里插入图片描述
    假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线
    当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行 failover [故障转移] 操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

配置过程
1.配置哨兵配置文件 sentinel.conf

# sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis 127.0.0.1 6379 1

后面的这个数字1,代表主机挂了,哨兵投票,最少有几票可以让下一个接替成为主机!
2.启动哨兵

redis-sentinel kconfig/sentinel.conf

规则

1.当主机宕机时(Master 节点断开),这个时候就会从从机中随机选择一个服务器!(这里面有一个投票算法!)
2.如果主机此时回来了,只能归并到新的主机下,当做从机,这就是规则!

优点

1.哨兵集群,基于主从复制模式,所有的主从复制优点,它全有
2.主从可以切换,故障可以转移,系统的可用性就会更好
3.哨兵模式就是主从模式的升级,手动到自动,更加健壮

缺点

1.Redis 难以在线扩容,集群容量一旦到达上限,到时的在线扩容就会十分麻烦
2.实现哨兵模式的配置其实是很麻烦的,里面有很多选择

哨兵模式的全部配置

# Examplesentinel.conf

# 哨兵sentinel实例运行的端口默认26379 
如果有哨兵集群,我们还需要配置每个哨兵的端口
port 26379

# 哨兵sentinel的工作目录
dir /tmp

# 哨兵sentinel监控的redis主节点的 ip port
# master-name 可以自己命名的主节点名字只能由字母A-z、数字0-9、这三个字符".-_"组成。
# quorum 配置:多少个 sentinel 哨兵统一认为master主节点失联,那么这时客观上认为主节点失联了
# sentinelmonitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 63792

# 当在Redis实例中开启了requirepass foobared 授权密码,这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵 sentinel 连接主从的密码,注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd

# 指定多少毫秒之后,主节点没有应答哨兵sentinel,此时 哨兵主观上认为主节点下线,默认30秒
#sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000

# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步,
这个数字越小,完成failover所需的时间就越长,
但是如果这个数字越大,就意味着越多的slave因为replication而不可用。
可以通过将这个值设为1来保证每次只有一个slave处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1

# 故障转移的超时时间 failover-timeout 可以用在以下这些方面:
# 1.同一个sentinel对同一个master两次failover之间的间隔时间。
# 2.当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
# 3.当想要取消一个正在进行的failover所需要的时间。 
# 4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,
# 4.  slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000

# SCRIPTS EXECUTION
# 配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
# 对于脚本的运行结果有以下规则:
# 若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
# 若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
# 如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
# 一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。

# 通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),
#    将会去调用这个脚本,这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。
#    调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentinel.conf配置文件中
#    配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
# 通知脚本
# shell编程
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh

# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。
# 参数 from-ip,from-port,to-ip,to-port 是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh # 一般都是由运维来配置!

10.Redis 缓存穿透和雪崩

缓存穿透(查不到)

概念
缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(商品秒杀!),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
在这里插入图片描述
解决方案
1.布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力.
在这里插入图片描述
2.缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;

在这里插入图片描述
存在问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键。
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。

缓存击穿(量太大,缓存过期)

概述

这里需要注意和缓存穿透的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。

当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。

解决方案
1.设置热点数据永不过期(这样就不会访问数据库)
2.加互斥锁(setnx)

分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
在这里插入图片描述

缓存雪崩

概述
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis 宕机!

例子
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
在这里插入图片描述
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。

解决方案

  • redis高可用
    这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!)
  • 限流降级(在SpringCloud讲解过)
    这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
  • 数据预热
    数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值