Redis相关

Redis操作
切换几号库使用 select num。
一、key pattern 查询相应的key
  (1)redis允许模糊查询key  有3个通配符 、?、[]
  (2)randomkey:返回随机key  
  (3)type key:返回key存储的类型
  (4)exists key:判断某个key是否存在 存在1,不存在-1
  (5)del key:删除key
  (6)rename key newkey:改名
  (7)renamenx key newkey:如果newkey不存在则修改成功
  (8)move key 1:将key移动到1数据库
  (9)ttl key:查询key的生命周期(秒) 如果为永久有效设置生命周期为-1
  (10)expire key 整数值:设置key的生命周期以秒为单位
  (11)pexpire key 整数值:设置key的生命周期以毫秒为单位
  (12)pttl key:查询key 的生命周期(毫秒)
(13)perisist key:把指定key设置为永久有效
二、字符串类型的操作
  (1)set key value [ex 秒数] [px 毫秒数] [nx/xx]  
      如果ex和px同时写,则以后面的有效期为准
      nx:如果key不存在则建立
      xx:如果key存在则修改其值
  (2)get key:取值
  (3)mset key1 value1 key2 value2 一次设置多个值
  (4)mget key1 key2 :一次获取多个值
  (5)setrange key offset value:把字符串的offset偏移字节改成value
                  如果偏移量 > 字符串长度,该字符自动补0x00
  (6)append key value :把value追加到key 的原值上
  (7)getrange key start stop:获取字符串中[start, stop]范围的值
                  对于字符串的下标,左数从0开始,右数从-1开始
                  注意:当start>length,则返回空字符串
                     当stop>=length,则截取至字符串尾
                     如果start所处位置在stop右边,则返回空字符串
  (8)getset key nrevalue:获取并返回旧值,在设置新值
  (9)incr key:自增,返回新值,如果incr一个不是int的value则返回错误,incr一个不存在的key,则设置key为1
  (10)incrby key 2:跳2自增
  (11)incrbyfloat by 0.7: 自增浮点数 
  (12)setbit key offset value:设置offset对应二进制上的值,返回该位上的旧值
                 注意:如果offset过大,则会在中间填充0
                    offset最大到多少
                     2^32-1,即可推出最大的字符串为512M
  (13)bitop operation destkey key1 [key2…] 对key1 key2做opecation并将结果保存在destkey上
                          opecation可以是AND OR NOT XOR
  (14)strlen key:取指定key的value值的长度
  (15)setex key time value:设置key对应的值value,并设置有效期为time秒
三、链表操作
  Redis的list类型其实就是一个每个子元素都是string类型的双向链表,链表的最大长度是2^32。list既可以用做栈,也可以用做队列。
  list的pop操作还有阻塞版本,主要是为了避免轮询
  (1)lpush key value:把值插入到链表头部
  (2)rpush key value:把值插入到链表尾部
  (3)lpop key :返回并删除链表头部元素
  (4)rpop key: 返回并删除链表尾部元素
  (5)lrange key start stop:返回链表中[start, stop]中的元素
  (6)lrem key count value:从链表中删除value值,删除count的绝对值个value后结束
                count > 0 从表头删除  count < 0 从表尾删除  count=0 全部删除
  (7)ltrim key start stop:剪切key对应的链接,切[start, stop]一段并把改制重新赋给key
  (8)lindex key index:返回index索引上的值
  (9)llen key:计算链表的元素个数
  (10)linsert key after|before search value:在key 链表中寻找search,并在search值之前|之后插入value
  (11)rpoplpush source dest:把source 的末尾拿出,放到dest头部,并返回单元值
    应用场景: task + bak 双链表完成安全队列
    
    业务逻辑: rpoplpush task bak
         接收返回值并做业务处理
         如果成功则rpop bak清除任务,如果不成功,下次从bak表取任务
  (12)brpop,blpop key timeout:等待弹出key的尾/头元素
                timeout为等待超时时间,如果timeout为0则一直等待下去
      应用场景:长轮询ajax,在线聊天时能用到
四、hashes类型及操作
  Redis hash 是一个string类型的field和value的映射表,它的添加、删除操作都是O(1)(平均)。hash特别适用于存储对象,将一个对象存储在hash类型中会占用更少的内存,并且可以方便的存取整个对象。
  配置: hash_max_zipmap_entries 64 #配置字段最多64个
      hash_max_zipmap_value 512 #配置value最大为512字节
  (1)hset myhash field value:设置myhash的field为value
  (2)hsetnx myhash field value:不存在的情况下设置myhash的field为value
  (3)hmset myhash field1 value1 field2 value2:同时设置多个field
  (4)hget myhash field:获取指定的hash field
  (5)hmget myhash field1 field2:一次获取多个field
  (6)hincrby myhash field 5:指定的hash field加上给定的值
  (7)hexists myhash field:测试指定的field是否存在
  (8)hlen myhash:返回hash的field数量
  (9)hdel myhash field:删除指定的field
  (10)hkeys myhash:返回hash所有的field
  (11)hvals myhash:返回hash所有的value
  (12)hgetall myhash:获取某个hash中全部的field及value 
五、集合结构操作
  特点:无序性、确定性、唯一性
  (1)sadd key value1 value2:往集合里面添加元素
  (2)smembers key:获取集合所有的元素
  (3)srem key value:删除集合某个元素
  (4)spop key:返回并删除集合中1个随机元素(可以坐抽奖,不会重复抽到某人)   
  (5)srandmember key:随机取一个元素
  (6)sismember key value:判断集合是否有某个值
  (7)scard key:返回集合元素的个数
  (8)smove source dest value:把source的value移动到dest集合中
  (9)sinter key1 key2 key3:求key1 key2 key3的交集
  (10)sunion key1 key2:求key1 key2 的并集
  (11)sdiff key1 key2:求key1 key2的差集
  (12)sinterstore res key1 key2:求key1 key2的交集并存在res里 
六、有序集合
  概念:它是在set的基础上增加了一个顺序属性,这一属性在添加修改元素的时候可以指定,每次指定后,zset会自动按新的值调整顺序。可以理解为有两列的mysql表,一列存储value,一列存储顺序,操作中key理解为zset的名字。
  和set一样sorted,sets也是string类型元素的集合,不同的是每个元素都会关联一个double型的score。sorted set的实现是skip list和hash table的混合体。
  当元素被添加到集合中时,一个元素到score的映射被添加到hash table中,所以给定一个元素获取score的开销是O(1)。另一个score到元素的映射被添加的skip list,并按照score排序,所以就可以有序地获取集合中的元素。添加、删除操作开销都是O(logN)和skip list的开销一致,redis的skip list 实现是双向链表,这样就可以逆序从尾部去元素。sorted set最经常使用方式应该就是作为索引来使用,我们可以把要排序的字段作为score存储,对象的ID当元素存储。
  (1)zadd key score1 value1:添加元素
  (2)zrange key start stop [withscore]:把集合排序后,返回名次[start,stop]的元素 默认是升续排列 withscores 是把score也打印出来
  (3)zrank key member:查询member的排名(升序0名开始)
  (4)zrangebyscore key min max [withscores] limit offset N:集合(升序)排序后取score在[min, max]内的元素,并跳过offset个,取出N个
  (5)zrevrank key member:查询member排名(降序 0名开始)
  (6)zremrangebyscore key min max:按照score来删除元素,删除score在[min, max]之间
  (7)zrem key value1 value2:删除集合中的元素
  (8)zremrangebyrank key start end:按排名删除元素,删除名次在[start, end]之间的
  (9)zcard key:返回集合元素的个数
  (10)zcount key min max:返回[min, max]区间内元素数量
  (11)zinterstore dest numkeys key1[key2…] [WEIGHTS weight1 [weight2…]] [AGGREGATE SUM|MIN|MAX]
      求key1,key2的交集,key1,key2的权值分别是weight1,weight2
      聚合方法用 sum|min|max
      聚合结果 保存子dest集合内
      注意:weights,aggregate如何理解?
          答:如果有交集,交集元素又有score,score怎么处理?aggregate num->score相加,min最小score,max最大score,另外可以通过weights设置不同的key的权重,交集时 score
weight
七、服务器相关命令
  (1)ping:测定连接是否存活
  (2)echo:在命令行打印一些内容
  (3)select:选择数据库
  (4)quit:退出连接
  (5)dbsize:返回当前数据库中key的数目
  (6)info:获取服务器的信息和统计
  (7)monitor:实时转储收到的请求
  (8)config get 配置项:获取服务器配置的信息
     config set 配置项 值:设置配置项信息
  (9)flushdb:删除当前选择数据库中所有的key
  (10)flushall:删除所有数据库中的所有的key
  (11)time:显示服务器时间,时间戳(秒),微秒数
  (12)bgrewriteaof:后台保存rdb快照
  (13)bgsave:后台保存rdb快照
  (14)save:保存rdb快照
  (15)lastsave:上次保存时间
  (16)shutdown [save/nosave]
      注意:如果不小心运行了flushall,立即shutdown nosave,关闭服务器,然后手工编辑aof文件,去掉文件中的flushall相关行,然后开启服务器,就可以倒回原来是数据。如果flushall之后,系统恰好bgwriteaof了,那么aof就清空了,数据丢失。
  (17)showlog:显示慢查询
      问:多慢才叫慢?
      答:由slowlog-log-slower-than 10000,来指定(单位为微秒)
      问:服务器存储多少条慢查询记录
      答:由slowlog-max-len 128,来做限制 
关于redis持久化AOF(append only file日志文件)和RDB(redis DataBase快照)
RDB
RDB 详解

RDB 是 Redis 默认的持久化方案。在指定的时间间隔内,执行指定次数的写操作,则会将内存中的数据写入到磁盘中。即在指定目录下生成一个dump.rdb文件。Redis 重启会通过加载dump.rdb文件恢复数据。
从配置文件了解RDB
打开 redis.conf 文件,找到 SNAPSHOTTING 对应内容
1 RDB核心规则配置(重点)
save

save “”

save 900 1
save 300 10
save 60 10000
解说:save <指定时间间隔> <执行指定次数更新操作>,满足条件就将内存中的数据同步到硬盘中。官方出厂配置默认是 900秒内有1个更改,300秒内有10个更改以及60秒内有10000个更改,则将内存中的数据快照写入磁盘。
若不想用RDB方案,可以把 save “” 的注释打开,下面三个注释。
保存RDB数据的命令有两种,一个是save,一个是bgsave,一般用的都是bgsave命令。
• save命令
save命令会阻塞redis服务器的进程,直到RDB文件创建完,在该期间,redis不能处理任何的命令请求,这就是save命令最大的缺陷。
• bgsave命令
与save命令不同的是,bgsave在生成RDB文件时,会派生出一个子进程,子进程负责创建RDB文件,在此期间,主进程和子进程是同时存在的,因此不会阻塞redis服务器进程。
(可用lastsave命令查看生成RDB文件是否成功)
2 指定本地数据库文件名,一般采用默认的 dump.rdb
dbfilename dump.rdb
3 指定本地数据库存放目录,一般也用默认配置
dir ./
4 默认开启数据压缩
rdbcompression yes
解说:配置存储至本地数据库时是否压缩数据,默认为yes。Redis采用LZF压缩方式,但占用了一点CPU的时间。若关闭该选项,但会导致数据库文件变的巨大。建议开启。
触发RDB快照
1 在指定的时间间隔内,执行指定次数的写操作
2 执行save(阻塞, 只管保存快照,其他的等待) 或者是bgsave (异步)命令
3 执行flushall 命令,清空数据库所有数据,意义不大。
4 执行shutdown 命令,保证服务器正常关闭且不丢失任何数据,意义…也不大。
通过RDB文件恢复数据
将dump.rdb 文件拷贝到redis的安装目录的bin目录下,重启redis服务即可。在实际开发中,一般会考虑到物理机硬盘损坏情况,使用cp命令选择备份dump.rdb 。
RDB 的优缺点
优点:
1 适合大规模的数据恢复。
2 如果业务对数据完整性和一致性要求不高,RDB是很好的选择。
缺点:
1 数据的完整性和一致性不高,因为RDB可能在最后一次备份时宕机了。
2 备份时占用内存,因为Redis 在备份时会独立创建一个子进程,将数据写入到一个临时文件(此时内存中的数据是原来的两倍哦),最后再将临时文件替换之前的备份文件。
所以Redis 的持久化和数据的恢复要选择在夜深人静的时候执行是比较合理的。
AOF 详解
AOF :Redis 默认不开启。它的出现是为了弥补RDB的不足(数据的不一致性),所以它采用日志的形式来记录每个写操作,并追加到文件中。Redis 重启的会根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。
从配置文件了解AOF
打开 redis.conf 文件,找到 APPEND ONLY MODE 对应内容
1 redis 默认关闭,开启需要手动把no改为yes
appendonly yes
2 指定本地数据库文件名,默认值为 appendonly.aof
appendfilename “appendonly.aof”
3 指定更新日志条件

appendfsync always

appendfsync everysec

appendfsync no

解说:
always:同步持久化,每次发生数据变化会立刻写入到磁盘中。性能较差当数据完整性比较好(慢,安全)
everysec:出厂默认推荐,每秒异步记录一次(默认值)
no:不同步
4 配置重写触发机制
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
解说:当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发。一般都设置为3G,64M太小了。
触发AOF快照
根据配置文件触发,可以是每次执行触发,可以是每秒触发,可以不同步。
根据AOF文件恢复数据
正常情况下,将appendonly.aof 文件拷贝到redis的安装目录的bin目录下,重启redis服务即可。但在实际开发中,可能因为某些原因导致appendonly.aof 文件格式异常,从而导致数据还原失败,可以通过命令redis-check-aof --fix appendonly.aof 进行修复 。从下面的操作演示中体会。
AOF的重写机制
前面也说到了,AOF的工作原理是将写操作追加到文件中,文件的冗余内容会越来越多。所以聪明的 Redis 新增了重写机制。当AOF文件的大小超过所设定的阈值时,Redis就会对AOF文件的内容压缩。
重写的原理:Redis 会fork出一条新进程,读取内存中的数据,并重新写到一个临时文件中。并没有读取旧文件(你都那么大了,我还去读你??? o(゚Д゚)っ傻啊!)。最后替换旧的aof文件。
触发机制:当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发。这里的“一倍”和“64M” 可以通过配置文件修改。
AOF 的优缺点
优点:数据的完整性和一致性更高
缺点:因为AOF记录的内容多,文件会越来越大,数据恢复也会越来越慢。
总结

  1. Redis 默认开启RDB持久化方式,在指定的时间间隔内,执行指定次数的写操作,则将内存中的数据写入到磁盘中。
  2. RDB 持久化适合大规模的数据恢复但它的数据一致性和完整性较差。
  3. Redis 需要手动开启AOF持久化方式,默认是每秒将写操作日志追加到AOF文件中。
  4. AOF 的数据完整性比RDB高,但记录内容多了,会影响数据恢复的效率。
  5. Redis 针对 AOF文件大的问题,提供重写的瘦身机制。
  6. 若只打算用Redis 做缓存,可以关闭持久化。
  7. 若打算使用Redis 的持久化。建议RDB和AOF都开启。其实RDB更适合做数据的备份,留一后手。AOF出问题了,还有RDB。
    #redis使用pipeline通道大幅度提升redis的处理速度,节省成本
    Redis是采用基于C/S模式的请求/响应协议的TCP服务器。
    性能问题一:redis客户端发送多条请求,后面的请求需要等待前面的请求处理完后,才能进行处理,而且每个请求都存在往返时间RRT(Round Trip Time),即使redis性能极高,当数据量足够大,也会极大影响性能,还可能会引起其他意外情况。
    性能问题二:性能问题一,我们可以通过scan命令来解决,如何来设置count又是一个问题,设置不好,同样会有大量请求存在,即使设置到1w(推荐最大值),如果扫描的数据量太大,这个问题同样不能避免。每个请求都会经历三次握手、四次挥手,在处理大量连接时,处理完后,挥手会产生大量time-wait,如果该服务器提供其他服务,可能对其他服务造成影响。
    当我们要处理上万以上数据的时候,就不得不另想办法,此时pipeline管道就是解决执行大量命令时、会产生大量数据来回次数而导致延迟的技术。其实原理比较简单,pipeline是把所有的命令一次发过去,避免频繁的发送、接收带来的网络开销,redis在打包接收到一堆命令后,依次执行,然后把结果再打包返回给客户端。
    connection = redisTemplate.getConnectionFactory().getConnection();
    // 数据过多,使用管道,这个项目中是大于5k数量使用管道
    connection.openPipeline();
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值