Redis学习

Redis

一、前言NoSQL

1.1 NoSQL的引言
NoSQL(Not Only SQL ),意即不仅仅是SQL, 泛指非关系型的数据库。Nosql这个技术门类,早期就有人提出,发展至2009年趋势越发高涨。

1.2 为什么是NoSQL
随着互联网网站的兴起,传统的关系数据库在应付动态网站,特别是超大规模和高并发的纯动态网站已经显得力不从心,暴露了很多难以克服的问题。如商城网站中对商品数据频繁查询、对热搜商品的排行统计、订单超时问题、以及微信朋友圈(音频,视频)存储等相关使用传统的关系型数据库实现就显得非常复杂,虽然能实现相应功能但是在性能上却不是那么乐观。nosql这个技术门类的出现,更好的解决了这些问题,它告诉了世界不仅仅是sql。

1.3 NoSQL特点
解耦!
(1)方便扩展(数据之间没有关系,很好拓展)
(2)大数据量高性能(Redis一秒钟写8万次,读取11万)
(3)数据类型是多样性的(不需要事先设计数据库,随取随用)
(4)传统RDBMS和NoSQL

传统的RDBMS
- 结构化组织
- 数据和关系都存在单独的表中
- 操作数据库,数据库定义语言
- 严格的一致性
- 基础的事务
- 。。。
NoSQL
- 不仅仅是数据
- 没有固定的查询语言
- 键值对存储,列存储,文档存储,图形数据库(社交关系)
- 最终一致性,
- CAP定理和BASE 
- 高性能,高可用,高可扩

1.4 NoSQL的四大分类
在这里插入图片描述

二、Redis入门

Redis(Remote Dictionary Server ),即远程字典服务,

是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。

Redis是一个开源(BSD许可),内存存储的数据结构服务器,可用作数据库,高速缓存和消息队列代理。它支持字符串哈希表列表集合有序集合位图hyperloglogs等数据类型。内置复制、Lua脚本、LRU收回、事务以及不同级别磁盘持久化功能,同时通过Redis Sentinel提供高可用,通过Redis Cluster提供自动分区

Redis能干嘛?

1、内存存储、持久化,内存中的数据是断电即失的,所以持久化很重要(RDB、AOF)
2、效率高,可以用于高速缓存
3、发布订阅系统
4、地图信息分析
5、计时器、计数器(浏览量)
6、……

特性

1、多样的数据类型
2、持久化
3、集群
4、事务
……

redis官网:https://redis.io/

redis中文网:https://www.redis.net.cn/

安装:
https://www.bilibili.com/video/BV1S54y1R7SB/?p=9&spm_id_from=pageDriver&vd_source=1446083f1efc2568390e4a12961941db)

端口号6379

测试性能:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XJv5y72G-1667661738731)(D:\program files\TyporaImg\image-20221026191925119.png)]

# 测试100个并发链接 100000请求
redis-benchmark -h localhost -p 6379 -c 100 -n 100000

2.1 Redis的基本知识

1、redis默认有16个数据库,默认使用的是第0个数据库,可以使用select切换数据库

select 1  #切换1数据库
DBSIZE  #查看DB大小
flushdb #清空当前库
flushall #清空数据库

key操作

keys *  #查看所有key
exists key #判断当前key是否存在
move key 1 #移除当前的key
expire key second #设置过期时间
ttl key  #查看key剩余过期时间
type key #查看key的类型

其他的命令:redis命令手册

2、Redis是单线程的!!

官方表示,Redis是基于内存操作的,CPU不是Redis的性能瓶颈。Redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程,就使用单线程了!

Redis是C语言写的,官方提供的数据为100000+的QPS,完全不比同样使用key-value的MemeCache差!

Redis为什么单线程还这么快?
误区1:高性能服务器一定是多线程的
误区2:多线程(CPU上下文切换)一定比单线程效率高
核心:redis是将全部数据放在内存中,所以使用单线程去操作效率就是最高的,对于内存系统来说,如果没有上下文切换效率就是最高的,多次读写都是在一个CPU上。

2.2 Redis五大数据类型

Redis支持五种数据类型:string(字符串),hash(哈希),list(列表),set(集合)及zset(sorted set:有序集合)。

String

string是redis最基本的类型,你可以理解成与Memcached一模一样的类型,一个key对应一个value。

string类型是二进制安全的。意思是redis的string可以包含任何数据。比如jpg图片或者序列化的对象 。

string类型是Redis最基本的数据类型,一个键最大能存储512MB。

set key value #设置key-value
get key  #获取key的value
exists key  #key是否存在
append key value #追加字符串,若key不存,相当于set key value
strlen key #获取字符串长度
incr key #当前key的value加1
decr key #当前key的value减一
incrby key 10 #当前key加10
decrby key 10 #当前key减10
getrange key 0 3 #字符串范围 (getrange key 0 -1 获取全部字符串)
setrange key 1 xx #替换指定位置开始的字符串
setex key second value    #(set with expire)设置过期时间
setnx key value   #(set if not exists )不存在再设置 (分布式锁中常使用)
mset key1 v1 key2 v2  #批量设置
mget key1 key2 key3  #批量获取
msetnx key1 v1 key2 v2  #不存在再设置(批量 原子性操作  一起成功 一起失败)
getset key value #先获取原值(不存在返回nil)再设置新值
#对象
set user:1 {name:yechen,age:3}#设置一个user:1对象,值为json字符串
# 这里的key是一个巧妙的设计:user:{id}:{filed}。
mset user:1:name yechen user:1:age 2
mget user:1:name user:1:age
List

redis中,可以将list用作栈、队列、阻塞队列的数据结构
所有list命令都是以l,r开头

Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素导列表的头部(左边)或者尾部(右边)。

lpush key v1 v2 ...  #将一个值或多个值插入列表的头部(左)
rpush key v1 v2 ...  #将一个值或多个值插入列表的尾部(右)
lrange key start end  #用过区间获取具体的值  (0 -1 区间获取全部值)
lpop key  #移除列表头部第一个值(左)
rpop key  #移除列表尾部第一个值(右)
lindex key index #通过索引获取值
llen key   #获取列表长度
lrem key count value  #移除list集合中指定个数的value  精确匹配
ltrim key start stop   #通过下标截取指定长度,list已经改变,只剩下截取后的元素
rpoplpush key otherkey  #移除列表中最后一个元素,并将它插入另一个列表头部
lset key index value  #将列表中指定下标的值替换为另外一个值,更新操作 (如果列表或索引不存在  会报错)
linsert key before v1 v2  #在v1前插入v2
linsert key after v1 v2  #在v1后插入v2

小结:

  • 他实际上是一个链表,before after left right 都可以插入值
  • 如果key不存在,创建新的链表
  • 如果key存在,新增内容
  • 如果移除了所有值,空链表,也代表不存在
  • 在两边插入或改动值,效率最高!中间元素,相对来说效率会低一点!
  • 消息排队 消息队列(Lpush Rpop) ,栈(Lpush Lpop)
set

Redis的Set是string类型的无序集合。

集合是通过哈希表实现的,所以添加,删除,查找的复杂度都是O(1)。

set中的值不能重复

sadd key value  #添加元素
smembers key   #查看指定set中所用元素
sismember key value  #判断某一个值在指定set中是否存在
scard key  #获取set中的内容元素个数
srem key value   #移除set中指定元素
srandmember key count  #随机选出指定个数的成员
spop key  #随机移除元素
smove oldkey  newkey member  #将一个指定的值,从一个set移动到另一个set
sdiff key...   #获取多个set差集
sinter key...  #获取多个set交集 (共同好友、共同关注)
sunion key...  #获取多个set并集

应用场景:微博,将用户所有关注放入一个set,粉丝放入一个set
-> 共同关注、二度好友、相互关注……

Hash

Map集合 key-(key-value)

Redis hash 是一个键值对集合。

Redis hash是一个string类型的field和value的映射表,hash特别适合用于存储对象。

hset key field value  #存入一个具体键值对
hget key field   #获取一个字段值
hmset key field value field1 value1 ...  #存入多个具体键值对
hmget key field field1 ...  #获取多个字段值
hgetall key    #获取全部数据
hdel key field  #删除hash指定的key字段,对应value也就没有了
hlen key     #获取hash中字段数量
hexists key field   #判断hash中某个字段是否存在
hkeys key    #获取hash中全部key
hvals key    #获取hash中全部value
hincrby key field 1  #hash中指定key的value加1
hdecrby key field 1  #hash中指定key的value减1
hsetnx key field value   #如果hash中指定key不存在则创建,存在则创建失败
Zset

Redis zset 和 set 一样也是string类型元素的集合,且不允许重复的成员。

不同的是每个元素都会关联一个double类型的分数。redis正是通过分数来为集合中的成员进行从小到大的排序。

zset的成员是唯一的,但分数(score)却可以重复。

有序集合,在set的基础上增加了一个排序的值

zadd key score value  #添加元素
zrange key 0 1   #通过索引区间返回有序集合指定区间内的成员   (0 -1)返回全部
zrangebyscore key min max   #排序并返回 从小到大  例如:zrangebyscore key1 -inf +inf    (-inf:负无穷   +inf:正无穷 )
zrevrange key 0 -1     #排序并返回 从大到小
zrem key value   #移除指定元素
zcard key        #获取有序集合中的数量
zcount key start stop   #获取指定区间中的成员数量

2.3 Redis三种特殊数据类型

geospatial

地理位置 (定位、附近的人、打车距离……)

#geoadd 添加地理位置
规则:两极无法直接加入,通常通过java一次性导入  有效经度:-180到180  有效纬度:-85.05112878到85.05112878
geoadd china:city 121.47 31.23 shanghai
geoadd china:city 106.50 29.53 chongqing  114.05 22.52 shenzhen 120.16 30.24 hangzhou 108.96 34.26 xian
#geopop 获取指定成员的经度和纬度
GEOPOS china:city chongqing beijin
#geodist 查看成员间的的直线距离
GEODIST china:city beijin shanghai km
#georadius 以给定经纬度为中心,找出某一半径内的元素
(附件的人)
GEORADIUS china:city 110 30 1000 km
GEORADIUS china:city 110 30 1000 km withdist withcoord count 2 (withdist 显示直线距离  withcoord 显示经纬度  count  显示几条)
#georadiusbymember 以给定成员为中心,找出某一半径内的元素
georadiusbymember china:city beijing 1000 km withdist withcoord count 2 (withdist 显示直线距离  withcoord 显示经纬度  count  显示几条)
#geohash 返回一个或多个位置元素的geohash表示  将二维的经纬度转换成一维的11位字符串 如果两个字符串越接近,则距离越近。
#GEO底层就是Zset 可以用Zset命令操作Geo
zrange key 0 -1 
zrem key value
...
hyperloglog

基数 (不重复的元素个数) 可以接受误差 大概有0.81%的错误率
Redis hyperloglog 基数统计算法:
优点: 占用内存固定,存放2^64不同的元素的技术,只需要占用12KB内存
网页的UV (一个人访问一个网站多次,统计出还是一个人)
传统的方式:set集合保存用户id,统计set中用户数量。 但是相对消耗更多内存,我们的目的并不是保存用户id,目的只是计数。

PFadd key element element element element element element element  #创建一组元素
PFcount key   #统计元素基数
pfmerge key3 key1 key2   #合并两组key1 key2 => key3  并集(没有重复的)
bitmaps

位存储
统计用户信息 活跃 不活跃 登录 未登录 打卡
两个状态的 都可以使用bitmaps
bitmaps位图数据结构,都是操作二进制位来进行记录的,非0即1

setbit key offset value  #设置位图
getbit key offset        #获取指定位图的值
bitcount key     #统计数量
###################################################
例如 一周打卡   0为打卡 1打卡
127.0.0.1:6379> SETBIT sign 0 1
(integer) 0
127.0.0.1:6379> SETBIT sign 1 0
(integer) 0
127.0.0.1:6379> SETBIT sign 2 1
(integer) 0
127.0.0.1:6379> SETBIT sign 3 0
(integer) 0
127.0.0.1:6379> SETBIT sign 4 0
(integer) 0
127.0.0.1:6379> SETBIT sign 5 0
(integer) 0
127.0.0.1:6379> SETBIT sign 6 1
(integer) 0
127.0.0.1:6379> GETBIT sign 0
(integer) 1
127.0.0.1:6379> BITCOUNT sign
(integer) 3

2.4 事务

Redis事务的本质:一组命令的集合!一个事务中所有命令都会被序列化,在事务执行的过程中,会按照顺序执行。

一次性、顺序性、排他性

--- 队列 set set set 执行----

Redis事务没有隔离级别的概念!

所有命令在multi事务中,并没有直接执行!只有在发起执行命令exec的时候才会执行!

Redis单条命令时保证原子性的,但是事务不保证原子性

Redis的事务:

  • 开启事务(multi)

  • 命令入队(…)

  • 执行事务(exec)(事务所有的队列依次进行)\ 放弃事务(discard)(事务中的队列都不会执行)

    127.0.0.1:6379> MULTI
    OK
    127.0.0.1:6379(TX)> set k1 v1
    QUEUED
    127.0.0.1:6379(TX)> set k2 v2
    QUEUED
    127.0.0.1:6379(TX)> get k2
    QUEUED
    127.0.0.1:6379(TX)> set k3 v3
    QUEUED
    127.0.0.1:6379(TX)> EXEC
    1) OK
    2) OK
    3) "v2"
    4) OK
    

编译型异常(代码有问题,命令有错),事务中所有的命令都不会被执行!

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> set k1 v1
QUEUED
127.0.0.1:6379(TX)> get k1
QUEUED
127.0.0.1:6379(TX)> setget k2 v2  #错误命令
(error) ERR unknown command `setget`, with args beginning with: `k2`, `v2`,
127.0.0.1:6379(TX)> set k3 v3
QUEUED
127.0.0.1:6379(TX)> EXEC   #执行事务报错
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k1   #所有命令都没有被执行
(nil)

运行时异常 ,如果事务队列中存在语法性,那么执行命令的时候,其他命令是可以正常执行的,错误命令抛出异常。

127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> set k1 "gg"
QUEUED
127.0.0.1:6379(TX)> incr k1  #虽然命令报错了,但是事务依旧执行成功了
QUEUED
127.0.0.1:6379(TX)> set k2 v2
QUEUED
127.0.0.1:6379(TX)> get k2
QUEUED
127.0.0.1:6379(TX)> EXEC
1) OK
2) (error) ERR value is not an integer or out of range
3) OK
4) "v2"

Redis实现乐观锁

监控!Watch/unwatch(解锁,如果事务执行失败,先解锁,然后再次手动去监视)

  • 悲观锁:
    • 很悲观,什么时候都会出问题,无论做什么都会加锁!
  • 乐观锁
    • 很乐观,认为什么时候都不会出问题,不会加锁!更新数据的时候判断,在此期间是否有人修改过这个数据。
    • 获取version
    • 更新时比较version
127.0.0.1:6379> set k1 100
OK
127.0.0.1:6379> set k2 0
OK
127.0.0.1:6379> WATCH k1  #监控
OK
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379(TX)> DECRBY k1 20
QUEUED
127.0.0.1:6379(TX)> INCRBY k2 20
QUEUED
127.0.0.1:6379(TX)> EXEC  #执行之前,另外一个线程修改了监控值,导致事务执行失败,返回为nil,如果执行失败就先UNWATCH解锁,再去WATCH获取最新的值
(nil)
127.0.0.1:6379>UNWATCH 
#### 在上一个线程EXEC之前 执行以下命令 ######
127.0.0.1:6379> set k1 1000
OK

三、引入Redis

3.1 Jedis

什么是Jedis: Redis官方推荐的java连接开发工具!
1、导入jar包

<dependency>
    <groupId>redis.clients</groupId>
    <artifactId>jedis</artifactId>
    <version>4.3.1</version>
</dependency>

2、连接数据库
3、操作命令
4、断开连接

package com.rui;

import redis.clients.jedis.Jedis;

public class TestPing {
    public static void main(String[] args) {
        Jedis jedis = new Jedis("127.0.0.1",6379);
        //jedis所有的命令就是我们之前学的所有指令
//        jedis.
        System.out.println(jedis.ping());
        jedis.close();//断开链接
    }
}

事务

package com.rui;

import com.alibaba.fastjson2.JSONObject;
import redis.clients.jedis.Jedis;
import redis.clients.jedis.Transaction;

public class TestTX {
    public static void main(String[] args) {
        Jedis jedis = new Jedis("127.0.0.1",6379);

        JSONObject jsonObject = new JSONObject();
        jsonObject.put("hello","world");
        jsonObject.put("name","yechen");
        String result = jsonObject.toJSONString();
        jedis.flushDB();
        //开启事务
        Transaction multi = jedis.multi();
//        jedis.watch(result);//监控
        try {
            multi.set("user1",result);
            multi.set("user2",result);
            int i=1/0; //代码抛出异常,执行失败
            multi.exec();//执行事务
        }catch (Exception e){
            multi.discard();//放弃事务
        }finally {
            System.out.println(jedis.get("user1"));
            System.out.println(jedis.get("user2"));
            jedis.close();//关闭连接
        }
    }
}

3.2 Spring Boot整合

创建项目,勾选spring web、常用的开发工具和Spring Data Redis(Access+Driver)

其中的依赖如下:

<dependencies>
    <!--redis-->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-data-redis</artifactId>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-web</artifactId>
    </dependency>

    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-devtools</artifactId>
        <scope>runtime</scope>
        <optional>true</optional>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-configuration-processor</artifactId>
        <optional>true</optional>
    </dependency>
    <dependency>
        <groupId>org.projectlombok</groupId>
        <artifactId>lombok</artifactId>
        <optional>true</optional>
    </dependency>
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-test</artifactId>
        <scope>test</scope>
        <exclusions>
            <exclusion>
                <groupId>org.junit.vintage</groupId>
                <artifactId>junit-vintage-engine</artifactId>
            </exclusion>
        </exclusions>
    </dependency>
</dependencies>

点击redis依赖我们可以看到其中引入了lettuce-core

说明:在springboot2.X之后,jedis被替换为了lettuce

jedis:采用直连,多个线程操作不安全,如果想避免安全问题,使用jedis pool连接池! 更像BIO模式

lettuce:采用netty,实例可以在多个线程共享,不存在线程不安全的问题,可以减少线程数量。 更像NIO模式

配置

#Spring boot所有的配置类,都有一个自动配置类  RedisAutoConfiguration
# 对应的文件RedisProperties

spring.redis.host=127.0.0.1
spring.redis.port=6379
#spring.redis.lettuce....

在测试类中测试:

@Autowired
private RedisTemplate redisTemplate;

@Test
void contextLoads() {
    //redisTemplate
    //opsForValue 操作String、opsForList 操作List
    //opsForSet、opsForHash、opsForZSet
    //opsForGeo、opsForHyperLogLog、
    //bitmap在opsForValue中

    //除了基本的操作,我們常用的方法否可以直接通過redisTemplate進行操作

    //获取redis的连接对象
    //        RedisConnection connection = redisTemplate.getConnectionFactory().getConnection();
    //        connection.flushDb();
    //        connection.flushAll();

    redisTemplate.opsForValue().set("name","yechen");
    System.out.println(redisTemplate.opsForValue().get("name"));
}

自定义RedisTemplate

创建RedisConfig配置类

package com.rui.config;

import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import com.fasterxml.jackson.databind.jsontype.impl.LaissezFaireSubTypeValidator;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;

@Configuration
public class RedisConfig {
    //固定的模板!!!!

    @Bean
    //自己定义的一个RedisTemplate
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory connectionFactory){
        System.out.println("这里是自定义的RedisTemplate...");

        //为了方便我们开发,一般都使用<String,object>();
        RedisTemplate<String, Object> template = new RedisTemplate<>();

        template.setConnectionFactory(connectionFactory);
        //自定义Jackson序列化配置
        Jackson2JsonRedisSerializer jsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
        ObjectMapper objectMapper = new ObjectMapper();
        objectMapper.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        objectMapper.activateDefaultTyping(LaissezFaireSubTypeValidator.instance, ObjectMapper.DefaultTyping.NON_FINAL);
        jsonRedisSerializer.setObjectMapper(objectMapper);

        //key使用String的序列化方式
        StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();
        template.setKeySerializer(stringRedisSerializer);
        //hash的key也是用String的序列化方式
        template.setHashKeySerializer(stringRedisSerializer);
        //value的key使用jackson的序列化方式
        template.setValueSerializer(jsonRedisSerializer);
        //hash的value也是用jackson的序列化方式
        template.setHashValueSerializer(jsonRedisSerializer);
        template.afterPropertiesSet();

        return template;

    }
}

Redis工具类RedisUtil

package com.rui.utils;


import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.stereotype.Component;
import org.springframework.util.CollectionUtils;

import java.util.List;
import java.util.Map;
import java.util.Set;
import java.util.concurrent.TimeUnit;

@Component
public final class RedisUtil {

    @Autowired
    private RedisTemplate<String, Object> redisTemplate;

    // =============================common============================

    /**
     * 指定缓存失效时间
     *
     * @param key  键
     * @param time 时间(秒)
     */
    public boolean expire(String key, long time) {
        try {
            if (time > 0) {
                redisTemplate.expire(key, time, TimeUnit.SECONDS);
            }
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }

    /**
     * 根据key 获取过期时间
     *
     * @param key 键 不能为null
     * @return 时间(秒) 返回0代表为永久有效
     */
    public long getExpire(String key) {
        return redisTemplate.getExpire(key, TimeUnit.SECONDS);
    }


    /**
     * 判断key是否存在
     *
     * @param key 键
     * @return true 存在 false不存在
     */
    public boolean hasKey(String key) {
        try {
            return redisTemplate.hasKey(key);
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 删除缓存
     *
     * @param key 可以传一个值 或多个
     */
    @SuppressWarnings("unchecked")
    public void del(String... key) {
        if (key != null && key.length > 0) {
            if (key.length == 1) {
                redisTemplate.delete(key[0]);
            } else {
                redisTemplate.delete(CollectionUtils.arrayToList(key));
            }
        }
    }


    // ============================String=============================

    /**
     * 普通缓存获取
     *
     * @param key 键
     * @return 值
     */
    public Object get(String key) {
        return key == null ? null : redisTemplate.opsForValue().get(key);
    }

    /**
     * 普通缓存放入
     *
     * @param key   键
     * @param value 值
     * @return true成功 false失败
     */

    public boolean set(String key, Object value) {
        try {
            redisTemplate.opsForValue().set(key, value);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 普通缓存放入并设置时间
     *
     * @param key   键
     * @param value 值
     * @param time  时间(秒) time要大于0 如果time小于等于0 将设置无限期
     * @return true成功 false 失败
     */

    public boolean set(String key, Object value, long time) {
        try {
            if (time > 0) {
                redisTemplate.opsForValue().set(key, value, time, TimeUnit.SECONDS);
            } else {
                set(key, value);
            }
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 递增
     *
     * @param key   键
     * @param delta 要增加几(大于0)
     */
    public long incr(String key, long delta) {
        if (delta < 0) {
            throw new RuntimeException("递增因子必须大于0");
        }
        return redisTemplate.opsForValue().increment(key, delta);
    }


    /**
     * 递减
     *
     * @param key   键
     * @param delta 要减少几(小于0)
     */
    public long decr(String key, long delta) {
        if (delta < 0) {
            throw new RuntimeException("递减因子必须大于0");
        }
        return redisTemplate.opsForValue().increment(key, -delta);
    }


    // ================================Map=================================

    /**
     * HashGet
     *
     * @param key  键 不能为null
     * @param item 项 不能为null
     */
    public Object hget(String key, String item) {
        return redisTemplate.opsForHash().get(key, item);
    }

    /**
     * 获取hashKey对应的所有键值
     *
     * @param key 键
     * @return 对应的多个键值
     */
    public Map<Object, Object> hmget(String key) {
        return redisTemplate.opsForHash().entries(key);
    }

    /**
     * HashSet
     *
     * @param key 键
     * @param map 对应多个键值
     */
    public boolean hmset(String key, Map<String, Object> map) {
        try {
            redisTemplate.opsForHash().putAll(key, map);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * HashSet 并设置时间
     *
     * @param key  键
     * @param map  对应多个键值
     * @param time 时间(秒)
     * @return true成功 false失败
     */
    public boolean hmset(String key, Map<String, Object> map, long time) {
        try {
            redisTemplate.opsForHash().putAll(key, map);
            if (time > 0) {
                expire(key, time);
            }
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 向一张hash表中放入数据,如果不存在将创建
     *
     * @param key   键
     * @param item  项
     * @param value 值
     * @return true 成功 false失败
     */
    public boolean hset(String key, String item, Object value) {
        try {
            redisTemplate.opsForHash().put(key, item, value);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }

    /**
     * 向一张hash表中放入数据,如果不存在将创建
     *
     * @param key   键
     * @param item  项
     * @param value 值
     * @param time  时间(秒) 注意:如果已存在的hash表有时间,这里将会替换原有的时间
     * @return true 成功 false失败
     */
    public boolean hset(String key, String item, Object value, long time) {
        try {
            redisTemplate.opsForHash().put(key, item, value);
            if (time > 0) {
                expire(key, time);
            }
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 删除hash表中的值
     *
     * @param key  键 不能为null
     * @param item 项 可以使多个 不能为null
     */
    public void hdel(String key, Object... item) {
        redisTemplate.opsForHash().delete(key, item);
    }


    /**
     * 判断hash表中是否有该项的值
     *
     * @param key  键 不能为null
     * @param item 项 不能为null
     * @return true 存在 false不存在
     */
    public boolean hHasKey(String key, String item) {
        return redisTemplate.opsForHash().hasKey(key, item);
    }


    /**
     * hash递增 如果不存在,就会创建一个 并把新增后的值返回
     *
     * @param key  键
     * @param item 项
     * @param by   要增加几(大于0)
     */
    public double hincr(String key, String item, double by) {
        return redisTemplate.opsForHash().increment(key, item, by);
    }


    /**
     * hash递减
     *
     * @param key  键
     * @param item 项
     * @param by   要减少记(小于0)
     */
    public double hdecr(String key, String item, double by) {
        return redisTemplate.opsForHash().increment(key, item, -by);
    }


    // ============================set=============================

    /**
     * 根据key获取Set中的所有值
     *
     * @param key 键
     */
    public Set<Object> sGet(String key) {
        try {
            return redisTemplate.opsForSet().members(key);
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
    }


    /**
     * 根据value从一个set中查询,是否存在
     *
     * @param key   键
     * @param value 值
     * @return true 存在 false不存在
     */
    public boolean sHasKey(String key, Object value) {
        try {
            return redisTemplate.opsForSet().isMember(key, value);
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 将数据放入set缓存
     *
     * @param key    键
     * @param values 值 可以是多个
     * @return 成功个数
     */
    public long sSet(String key, Object... values) {
        try {
            return redisTemplate.opsForSet().add(key, values);
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }


    /**
     * 将set数据放入缓存
     *
     * @param key    键
     * @param time   时间(秒)
     * @param values 值 可以是多个
     * @return 成功个数
     */
    public long sSetAndTime(String key, long time, Object... values) {
        try {
            Long count = redisTemplate.opsForSet().add(key, values);
            if (time > 0)
                expire(key, time);
            return count;
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }


    /**
     * 获取set缓存的长度
     *
     * @param key 键
     */
    public long sGetSetSize(String key) {
        try {
            return redisTemplate.opsForSet().size(key);
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }


    /**
     * 移除值为value的
     *
     * @param key    键
     * @param values 值 可以是多个
     * @return 移除的个数
     */

    public long setRemove(String key, Object... values) {
        try {
            Long count = redisTemplate.opsForSet().remove(key, values);
            return count;
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }

    // ===============================list=================================

    /**
     * 获取list缓存的内容
     *
     * @param key   键
     * @param start 开始
     * @param end   结束 0 到 -1代表所有值
     */
    public List<Object> lGet(String key, long start, long end) {
        try {
            return redisTemplate.opsForList().range(key, start, end);
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
    }


    /**
     * 获取list缓存的长度
     *
     * @param key 键
     */
    public long lGetListSize(String key) {
        try {
            return redisTemplate.opsForList().size(key);
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }


    /**
     * 通过索引 获取list中的值
     *
     * @param key   键
     * @param index 索引 index>=0时, 0 表头,1 第二个元素,依次类推;index<0时,-1,表尾,-2倒数第二个元素,依次类推
     */
    public Object lGetIndex(String key, long index) {
        try {
            return redisTemplate.opsForList().index(key, index);
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
    }


    /**
     * 将list放入缓存
     *
     * @param key   键
     * @param value 值
     */
    public boolean lSet(String key, Object value) {
        try {
            redisTemplate.opsForList().rightPush(key, value);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 将list放入缓存
     *
     * @param key   键
     * @param value 值
     * @param time  时间(秒)
     */
    public boolean lSet(String key, Object value, long time) {
        try {
            redisTemplate.opsForList().rightPush(key, value);
            if (time > 0)
                expire(key, time);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }

    }


    /**
     * 将list放入缓存
     *
     * @param key   键
     * @param value 值
     * @return
     */
    public boolean lSet(String key, List<Object> value) {
        try {
            redisTemplate.opsForList().rightPushAll(key, value);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }

    }


    /**
     * 将list放入缓存
     *
     * @param key   键
     * @param value 值
     * @param time  时间(秒)
     * @return
     */
    public boolean lSet(String key, List<Object> value, long time) {
        try {
            redisTemplate.opsForList().rightPushAll(key, value);
            if (time > 0)
                expire(key, time);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 根据索引修改list中的某条数据
     *
     * @param key   键
     * @param index 索引
     * @param value 值
     * @return
     */

    public boolean lUpdateIndex(String key, long index, Object value) {
        try {
            redisTemplate.opsForList().set(key, index, value);
            return true;
        } catch (Exception e) {
            e.printStackTrace();
            return false;
        }
    }


    /**
     * 移除N个值为value
     *
     * @param key   键
     * @param count 移除多少个
     * @param value 值
     * @return 移除的个数
     */

    public long lRemove(String key, long count, Object value) {
        try {
            Long remove = redisTemplate.opsForList().remove(key, count, value);
            return remove;
        } catch (Exception e) {
            e.printStackTrace();
            return 0;
        }
    }
}

测试类中的使用

@Autowired
private RedisTemplate redisTemplate;

@Autowired
private RedisUtil redisUtil;

@Test
void test2(){
    redisUtil.set("name","yechen");
    System.out.println(redisUtil.get("name"));
}

四、Redis高级篇

4.1 Redis.conf详解

单位 units

在这里插入图片描述

包含 includes
在这里插入图片描述

网络 network

bind 127.0.0.1 #绑定访问ip
protected-mode yes #保护模式 yes开启 no关闭
port 6379   #端口

通用 GENERAL

daemonize yes  #以守护进程的方式进行,默认是no
pidfile /var/run/redis_6379.pid  #如果以后台(守护进程)的方式运行,我们就需要指定一个pid文件!

日志

# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably)   (生产环境)
# warning (only very important / critical messages are logged)
loglevel notice  #日志级别
logfile ""     #日志文件名
databases 16   #数据库个数   默认16
always-show-logo yes   #是否总是展示logo

快照(snapshotting)
持久化,在规定时间内,执行了多少次操作,则会持久化到文件 .rdb .aof
redis是内存数据库,如果没有持久化,断电数据丢失

save 900 1   #如果900秒内,至少一个key进行了修改,那么就进行持久化操作
save 300 10   #如果300秒内,至少有10个key进行了修改,那么就进行持久化操作
save 60 10000  #如果60秒内,至少有10000个key进行了修改,那么就进行持久化操作
stop-writes-on-bgsave-error yes  #持久化如果出错,是否还需要继续工作
rdbcompression yes  #是否压缩.rdb文件(会消耗一定的cpu资源)
rdbchecksum yes    #保存.rdb文件的时候,进行错误检查校验
dir ./     #.rdb文件保存路径

复制(replication 主从复制)

在这里插入图片描述

主从复制中的修改从客户端的配置信息:

replicaof + 主机ip地址 + 端口

master + 主机的redis密码

安全(security)

requirepass root    #设置密码为root  默认是没有密码的
config set requirepass "root" #在redis客户端设置密码
config get requirepass
auth 密码

用Jedis连接阿里云等服务器上的redis

一.首先要开启安全组策略6379!然后bind注释掉所有!受保护的也设置为no!daemonize no
二. 配置redis.conf
1.设置访问redis的密码:requirepass 要设置密码
2.注释bind 127.0.0.1
(重启redis-server服务,进入redis后要先验证密码,用这个命令:auth 密码 ,然后ping一下看有没有配置成功)
三 . idea访问时添加auth密码
Jedis jedis = new Jedis(“服务器的外网ip”,6379);
jedis.auth(“redis的密码”);
System.out.println(jedis.ping());
(输出PONG的话就成功了)

客户端限制(clients)

maxclients 10000   #最大连接数

内存设置(memory management)

maxmemory <bytes>  #最大内存容量
maxmemory-policy noeviction   #内存处理策略  内存达到上限之后的处理策略
    1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)
    2、allkeys-lru : 删除lru算法的key
    3、volatile-random:随机删除即将过期key
    4、allkeys-random:随机删除
    5、volatile-ttl : 删除即将过期的
    6、noeviction : 永不过期,返回错误

aof配置(append only mode)

appendonly no   #aof模式默认不开启,默认是使用rdb方式持久化的,在大部分情况下,rdb完全够用
appendfilename "appendonly.aof"  #.aof文件名(持久化文件的名字)
# appendfsync always  #每次修改都会执行同步,消耗性能
appendfsync everysec  #每秒执行一次同步,但是可能会丢失这1s的数据
# appendfsync no      #不执行同步,这个时候操作系统自己同步数据,速度最快
####重写规则####
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb  #如果aof文件大于64mb,太大了,fork一个新的进程来讲我们的文件进行重写。

4.2 Redis持久化

RDB(Redis DataBase)

在这里插入图片描述

在指定时间间隔将内存中的数据集体快照写入磁盘,也就是行话讲的snapshot快照,它恢复时是将快照文件直接读到内存中。

Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入一个临时文件中,待持久化过程结束后,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何I/O操作的。这就确保了极高的性能。如果需要大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加高效。

优点:
1、适合大规模数据恢复。
2、对数据完整性要求不高。

缺点:
1、需要一定时间间隔进程操作,如果在时间间隔内redis宕机,最后一次持久化后的数据丢失。
2、fork子进程的时候,会占用一定的内存空间。

默认的持久化方式就是RDB方式,一般情况下不需要修改这个配置。默认保存的rdb文件为dump.rdb

触发规则:
1、save的规则满足的情况下,自动触发rdb规则
2、flushall命令执行后,自定触发rdb规则
3、退出redis时,自动触发rdb规则

恢复rdb文件:
1、只需要将rdb文件放在redis的启动目录就可以,redis启动的时候会自动检查dump.rdb文件,自动恢复rdb文件中的数据

127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/local/bin"  #如果这个目录下存在rdb文件,启动redis就是自动恢复其中数据
127.0.0.1:6379>

在主从复制中,rdb就是备用了!从机上面!

AOF(Append Only File)

在这里插入图片描述

将所有执行过的写命令都记录下来,history,在恢复的时候将记录的命令全部执行一遍。

以日志的形式来记录每个写操作,将Redis执行过的的所有指令记录下来(读操作不记录),只许追加文件不许改写文件,redis启动时,会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容,将写指令从前到后执行一次以完成数据的恢复工作。

aof默认是不开启的,需要手动开启(appendonly yes)。aof默认保存的是appendonly.aof文件。
重启,redis就可以生效了。

如果aof文件损坏或有错误,redis客户端无法连接。我们需要修复aof文件。aof文件损坏修复:redis-check-aof —fix appendonly.aof

# appendfsync always  #每次修改都会执行同步,消耗性能
appendfsync everysec  #每秒执行一次同步,但是可能会丢失这1s的数据
# appendfsync no      #不执行同步,这个时候操作系统自己同步数据,速度最快

优点:

1、每次修改都会执行同步,消耗性能,文件数据完整性更好。
2、每秒执行一次同步,但是可能会丢失这1s的数据
3、不执行同步,这个时候操作系统自己同步数据,速度最快

缺点:
1、相对于数据文件来说,aof文件远远大于rdb文件,修复的速度也较慢。
2、aof运行效率也要比rdb慢,所以我们redis默认的配置就是rdb持久化。

扩展:
1、RDB 持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis 协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
4、同时开启两种持久化方式
在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
RDB 的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
5、性能建议
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留 save 900 1 这条规则。
如果Enable AOF ,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite 的最后将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
如果不Enable AOF ,仅靠 Master-Slave Repllcation 实现高可用性也可以,能省掉一大笔IO,也减少了rewrite时带来的系统波动。代价是如果Master/Slave 同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个 Master/Slave 中的 RDB文件,载入较新的那个,微博就是这种架构。

4.3 Redis发布订阅

Redis发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送信息,订阅者(sub)接收信息。

Redis客户端可以订阅任意数量的频道。

订阅/发布消息图:
第一个:消息发送者 第二个:频道 第三个:消息订阅者
在这里插入图片描述

下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LkNbMTrk-1667661738736)(D:\program files\TyporaImg\pubsub1.png)]

当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-313L68Ub-1667661738737)(D:\program files\TyporaImg\pubsub2.png)]

命令

命令描述
PSUBSCRIBE pattern [pattern…]订阅一个或多个符合给定模式的频道。
PUNSUBSCRIBE pattern [pattern…]退订一个或多个符合给定模式的频道。
PUBSUB subcommand [argument[argument]]查看订阅与发布系统状态。
PUBLISH channel message向指定频道发布消息
SUBSCRIBE channel [channel…]订阅给定的一个或多个频道。
SUBSCRIBE channel [channel…]退订一个或多个频道

订阅端

[root@localhost bin]# redis-cli -p 6379
127.0.0.1:6379> SUBSCRIBE rui  #订阅一个频道
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "cheng"
3) (integer) 1
1) "message"  #消息
2) "rui"   #接收频道
3) "111"   #接收消息

发送端

127.0.0.1:6379> PUBLISH rui 111  #向指定频道部分消息
(integer) 1
原理

Redis是使用C实现的,通过分析 Redis 源码里的 pubsub.c 文件,了解发布和订阅机制的底层实现,籍此加深对 Redis 的理解。

Redis 通过 PUBLISH 、SUBSCRIBE 和 PSUBSCRIBE 等命令实现发布和订阅功能。

每个 Redis 服务器进程都维持着一个表示服务器状态的 redis.h/redisServer 结构, 结构的 pubsub_channels 属性是一个字典, 这个字典就用于保存订阅频道的信息,其中,字典的键为正在被订阅的频道, 而字典的值则是一个链表, 链表中保存了所有订阅这个频道的客户端。
在这里插入图片描述

客户端订阅,就被链接到对应频道的链表的尾部,退订则就是将客户端节点从链表中移除。

缺点
如果一个客户端订阅了频道,但自己读取消息的速度却不够快的话,那么不断积压的消息会使redis输出缓冲区的体积变得越来越大,这可能使得redis本身的速度变慢,甚至直接崩溃。
这和数据传输可靠性有关,如果在订阅方断线,那么他将会丢失所有在短线期间发布者发布的消息。

应用
消息订阅:公众号订阅,微博关注等等(起始更多是使用消息队列来进行实现)
多人在线聊天室。

稍微复杂的场景,我们就会使用消息中间件MQ处理。

4.4 Redis主从复制

主从复制,是指将一台Redis服务器的数据,复制到其他Redis的服务器。前者称为主节点(master/leader),后者称为从节点(slave/follower);数据的复制是单向的,只能从主节点到从节点。Master以写为主,Slave以读为主。

主从复制,读写分离!80%的情况下都是进行读的操作!减缓服务器压力!

默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但是一个从节点有且只有一个主节点。

主从复制的作用主要包括

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
  • 负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是写少读多的场景下,通过多个节点分担负载,可以大大提高Redis服务器的并发量。
  • 高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。

一般来说呀,要将redis运用于工程项目之中,只使用一台Redis是万万不能的(宕机),原因如下:

1、从结构上,单个redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载呀,压力较大。

2、从容量上,单个redis服务器内存容量有限,就算一台redis服务器内存容量为256GB,也不能将所有内存用作Redis存储内存,一般来说,单台Redis最大使用内存不应该超过20GB。

环境配置

只需要配置从库,不需要配置主库,因为默认情况下,每台Redis服务器都是主节点。

127.0.0.1:6379> info replication  #查看当前库的信息
# Replication
role:master   #角色  master
connected_slaves:0   #从库个数
master_failover_state:no-failover
master_replid:7e06d29925419238aac9519cfa2025680a0dca55
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
一主二从

开的伪集群:一主(79)二从(80,81)

修改3个配置文件:
1、端口6379、6380、6381
2、pid
3、log文件名字
4、rdb备份文件名字

默认情况下,每台redis服务器都是主节点;我们只需要配置从节点就好了(认老大)。

方式一:命令配置 (临时)

############ 从节点1:6380 ###########
127.0.0.1:6380> SLAVEOF 127.0.0.1 6379   #设置为主节点的从节点(认老大)
OK
127.0.0.1:6380> info replication
# Replication
role:slave   #当前角色为从节点
master_host:127.0.0.1     #主节点信息
master_port:6379
master_link_status:up
master_last_io_seconds_ago:6
master_sync_in_progress:0
slave_read_repl_offset:14
slave_repl_offset:14
slave_priority:100
slave_read_only:1
replica_announced:1
connected_slaves:0
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:14
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:14
############ 从节点2:6381 ###########
127.0.0.1:6381> SLAVEOF 127.0.0.1 6379  #设置为主节点的从节点(认老大)
OK
127.0.0.1:6381> info replication
# Replication
role:slave   #当前角色为从节点
master_host:127.0.0.1   #主节点信息
master_port:6379
master_link_status:up
master_last_io_seconds_ago:1
master_sync_in_progress:0
slave_read_repl_offset:56
slave_repl_offset:56
slave_priority:100
slave_read_only:1
replica_announced:1
connected_slaves:0
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:56
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:43
repl_backlog_histlen:14
############ 主节点6379 ###########
127.0.0.1:6379> info replication
# Replication
role:master    #当前角色为主节点
connected_slaves:2     #从节点个数
slave0:ip=127.0.0.1,port=6380,state=online,offset=70,lag=0   #从节点信息
slave1:ip=127.0.0.1,port=6381,state=online,offset=70,lag=1   #从节点信息
master_failover_state:no-failover
master_replid:16682d498ce34c8fe6785dc0b4e5b44afcc2e2ef
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:70
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:70

方式二:配置文件 (永久)
修改配置文件,设置主节点信息(replicaof + 主机ip地址 + 端口)
在这里插入图片描述

主节点可以写,从节点不能写只能读!主节点中所有信息和数据都会自动被从节点保存!!!!

说明:

############### 主节点(可以写) ###############
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> get k1
"v1"
############### 从节点(不可写,只能读) ###############
127.0.0.1:6380> keys *
1) "k1"
127.0.0.1:6380> get k1
"v1"
127.0.0.1:6380> set k2 v2
(error) READONLY You can't write against a read only replica.

注意:
1、主节点宕机,从节点依旧以从节点的角色连接主节点,没有写的权限;当主节点重新连接,从节点依旧可以直接获取到主节点写的信息!
2、如果是用命令行配置的从节点,从节点重启,主从配置失效!但是当重新配置成为从节点,立刻就会从主节点中获取值!
3、如果是配置文件配置的从节点,从节点宕机,主节点进行写操作,当从节点重新连接时,会从主节点中获取值,之前主节点写操作的信息依旧在此从节点存在!

复制原理

Slave启动成功连接到Master后会发送一个sync同步命令!
Master接到同步命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕后,Master将传送整个数据文件到Slave,并完成一次同步!

全量复制:Slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。

增量复制:Master继续将新的所有收集到的修改命令依次传给Slave,完成同步。

但是只要重新连接Master,一次完全同步(全量复制)将自动执行。数据一定会在Slave中看到。

宕机后手动配置主节点

链路模型:M-S(M)-S ,当第一个主节点存活时,S(M)节点为从节点,无法写操作!

当第一个主节点宕机后,可以手动将节点设置为主节点:

slaveof no one #使自己变成主节点

其他节点就可以手动的连接到这个最新的这个主节点(手动)!如果第一个主节点恢复,需要重新配置。将第一个主节点配置为现在主节点的小弟。

哨兵模式(重点)

(自动选举老大的模式)

运行原理

主从切换技术的方法是:当主节点宕机后,需要手动把一台从节点切换为主节点,这就需要人工干预,费时费力,还会造成一段时间内的服务不可用。这不是一种推荐的方式,更多的时候,我们优先考虑哨兵模式。Redis从2.8开始,正式提供了Sentinel(哨兵)架构来解决这个问题。

能够后台监控主节点是否故障,如果故障了根据投票数自动将从节点转换为主节点。

哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它能独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例

在这里插入图片描述

这里哨兵的两个作用:

  • 通过发送命令,让Redis服务器返回监控其运行的状态,包括主服务器和从服务器。
  • 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他从服务器,修改配置文件,让它们切换主节点。

如果这个哨兵死了怎么办?

我们可以使用多个哨兵进行监控。各个哨兵之间还会进行相互监控,这样就形成了多哨兵模式。
在这里插入图片描述

假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover(故障转移)过程,仅仅是哨兵1主观认为主服务器不可用,这个现象称为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover(故障转移)操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

测试

1、配置哨兵配置文件 sentinel.conf

# sentinel monitor 被监控的名称 主机的地址ip 端口号 1(1代表主机挂了,slave投票看让谁接替成为主机,票数最多的,就会成为主机。)
sentinel monitor headredis 127.0.0.1 6379 1

2、启动哨兵

[root@localhost bin]# redis-sentinel ./redis-config/sentinel.conf   #启动哨兵
1553:X 19 Nov 2021 00:37:09.841 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
1553:X 19 Nov 2021 00:37:09.841 # Redis version=6.2.6, bits=64, commit=00000000, modified=0, pid=1553, just started
1553:X 19 Nov 2021 00:37:09.841 # Configuration loaded
1553:X 19 Nov 2021 00:37:09.842 * Increased maximum number of open files to 10032 (it was originally set to 1024).
1553:X 19 Nov 2021 00:37:09.842 * monotonic clock: POSIX clock_gettime
                _._
           _.-``__ ''-._
      _.-``    `.  `_.  ''-._           Redis 6.2.6 (00000000/0) 64 bit
  .-`` .-```.  ```\/    _.,_ ''-._
 (    '      ,       .-`  | `,    )     Running in sentinel mode
 |`-._`-...-` __...-.``-._|'` _.-'|     Port: 26379
 |    `-._   `._    /     _.-'    |     PID: 1553
  `-._    `-._  `-./  _.-'    _.-'
 |`-._`-._    `-.__.-'    _.-'_.-'|
 |    `-._`-._        _.-'_.-'    |           https://redis.io
  `-._    `-._`-.__.-'_.-'    _.-'
 |`-._`-._    `-.__.-'    _.-'_.-'|
 |    `-._`-._        _.-'_.-'    |
  `-._    `-._`-.__.-'_.-'    _.-'
      `-._    `-.__.-'    _.-'
          `-._        _.-'
              `-.__.-'
1553:X 19 Nov 2021 00:37:09.844 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
1553:X 19 Nov 2021 00:37:09.847 # Sentinel ID is bed6d5d9ca158d07fc1cd33249755f0242c635dc
1553:X 19 Nov 2021 00:37:09.847 # +monitor master headredis 127.0.0.1 6379 quorum 1   #主节点信息
1553:X 19 Nov 2021 00:37:50.059 * +slave slave 127.0.0.1:6380 127.0.0.1 6380 @ headredis 127.0.0.1 6379  #从节点1信息
1553:X 19 Nov 2021 00:38:00.148 * +slave slave 127.0.0.1:6381 127.0.0.1 6381 @ headredis 127.0.0.1 6379  #从节点2信息

如果master节点断开了,这个时候就会从从机中随机选择一个服务器作为主机!(投票算法)

127.0.0.1:6379> SHUTDOWN
not connected> exit

哨兵:
在这里插入图片描述

选举后的主节点:
在这里插入图片描述

选举后的从节点:
在这里插入图片描述

当之前宕机的主节点重新连接,之前宕机的主节点会自动被哨兵转换成为新选举的主节点的从节点,这就是哨兵模式的规则

优点:
1、哨兵集群,基于主从复制模式,所有的主从配置的优点,它都有。
2、主从可以切换,故障可以转移,系统的可用性更好。
3、哨兵模式就是主从模式的升级,手动到自动,更加健壮!

缺点:
1、Redis不好在线扩容,集群容量一旦达到上限,在线扩容就十分麻烦!
2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!

哨兵模式的全部配置

完整的哨兵模式配置文件 sentinel.conf

# Example sentinel.conf

# 哨兵sentinel实例运行的端口 默认26379
port 26379

# 哨兵sentinel的工作目录
dir /tmp

# 哨兵sentinel监控的redis主节点的 ip port 
# master-name  可以自己命名的主节点名字 只能由字母A-z、数字0-9 、这三个字符".-_"组成。
# quorum 当这些quorum个数sentinel哨兵认为master主节点失联 那么这时 客观上认为主节点失联了
# sentinel monitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 6379 1
# 当在Redis实例中开启了requirepass foobared 授权密码 这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵sentinel 连接主从的密码 注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123passw0rd


# 指定多少毫秒之后 主节点没有应答哨兵sentinel 此时 哨兵主观上认为主节点下线 默认30秒
# sentinel down-after-milliseconds <master-name> <milliseconds>
sentinel down-after-milliseconds mymaster 30000


# 这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行 同步,
这个数字越小,完成failover所需的时间就越长,
但是如果这个数字越大,就意味着越 多的slave因为replication而不可用。
可以通过将这个值设为 1 来保证每次只有一个slave 处于不能处理命令请求的状态。


# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1


# 故障转移的超时时间 failover-timeout 可以用在以下这些方面: 
#1. 同一个sentinel对同一个master两次failover之间的间隔时间。
#2. 当一个slave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
#3.当想要取消一个正在进行的failover所需要的时间。  
#4.当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时,slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000


# SCRIPTS EXECUTION
#配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
#对于脚本的运行结果有以下规则:
#若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
#若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
#如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
#一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
#通知型脚本:当sentinel有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等),将会去调用这个脚本,
#这时这个脚本应该通过邮件,SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数,
#一个是事件的类型,
#一个是事件的描述。
#如果sentinel.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功。
#通知脚本
# sentinel notification-script <master-name> <script-path>
  sentinel notification-script mymaster /var/redis/notify.sh
  
  
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是“failover”,
# <role>是“leader”或者“observer”中的一个。 
# 参数 from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh

4.5 Redis 集群

Redis 集群教程

Redis集群的原理和搭建,一文带你详解 - 知乎 (zhihu.com)

4.6 Redis缓存穿透和雪崩

服务的高可用问题

Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据一致性问题。从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。

另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。

缓存穿透

概念

缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中,于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就出现了缓存穿透。

解决方案

1、布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;
在这里插入图片描述

2、缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;
在这里插入图片描述

但是这种方法存在两个问题:

  • 如果空值能被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;
  • 即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对需要保持数据一致性的业务会有影响。
缓存击穿

概念

这里需要注意和缓存穿透的区别。缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在屏障上凿开了一个洞。

当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导致数据库压力瞬间变大。

解决方案

1、设置热点数据不过期
从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。

2、加互斥锁
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁考验很大。

缓存雪崩

概念

缓存雪崩,是指在某一时间段,缓存集中过期失效。Redis宕机!

产生雪崩的原因之一,比如零点抢购,商品时间集中放入缓存,假设缓存一小时。那么1点的时候,大量缓存集体过期,对于这批商品的访问查询,都落到了数据库。对于数据库而言,就会产生周期性的压力波峰,于是所有请求都会到达存储层,存储层调用会暴增,造成存储层也会挂掉的情况。
在这里插入图片描述

其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因此自然形成的缓存雪崩,一定是在某一时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。

解决方案

1、Redis高可用
这个思想的含义是,既然Redis也有可能挂掉,那多增加几台redis服务器,这样一台挂了还有其他的可以继续工作,其实就是搭建集群。

2、限流降级
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读取数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。

3、数据预热
数据加热的含义就是在正式部署之前,先把可能的数据先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间尽量均匀。

引入:https://www.kuangstudy.com/bbs/1456304346827415554

  • 7
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

叶辰 .

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值