Redis基础学习(二)的reids基本类型的学习

String字符串 

简介

string 是 redis 最基本的类型,你可以理解成与 Memcached 一模一样的类型,一个 key 对应一个 value。

string 类型是二进制安全的。意思是 redis 的 string 可以包含任何数据。比如jpg图片或者序列化的对象。

string 类型是 Redis 最基本的数据类型,string 类型的值最大能存储 512MB。

常用命令

set <key> <value> 添加键值对

get <key> 获取对应的键值

append <key> 如果 key 已经存在并且是一个字符串, APPEND 命令将指定的 value 追加到该 key 原来值(value)的末尾

strlen <key> 返回 key 所储存的字符串值的长度

setnx <key> <value> 只有当key不存在时,才能设置value

incr <key> 将 key 中储存的数字值增一

decr <key> 将 key 中储存的数字值减一

incrby/decrby <key> <步长> key 所储存的值加上/减去所给的值

mset <k1> <v1> [<k2> <v2>] 同时设置一个或多个 key-value 对

metnx <k1> <v1> [<k2> <v2>] 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在

getrange <key> <起始位置> <结束位置> 获得值的范围

setrange <key> <起始位置> <value> 用value覆盖 <key>中所存储的字符串的值,从<起始位置>开始

setex <key> <seconds> <value> 将值 value 关联到 key,并将 key 的过期时间设为 seconds (以秒为单位)

getset <key> <value> 以新值换旧值,并返回 key 的旧值(old value) 

示例

#添加key值
set k1 aaa
#查看key值
get k1
#查看key值
keys *
#如果设置了相同的key会替换以前的key值
set k1 b
#查看的时候就会变成b
get k1
#追加
append k1 ccc
#再次查看发现ccc会追加b后面
get k1
"bccc"
#查询值的长度
strlen k1
#key不存在的时候可以添加存在则不能
setnx k1 v1
返回0不行
setnx k3 v3
返回1可以
#查看
get k3
#将key值的数组+1先创建一个有数字的key
set num 400
incr num
get num
返回401
#将key值的数组-1先创建一个有数字的key
decr num
get num
返回400
#incrby/decrby <key> <步长> key 所储存的值加上/减去所给的值
incrby num 10
返回410
decrby num 10
返回400
#清空一下
flushdb
#查看所有的key
keys *
#mset <k1> <v1> [<k2> <v2>] 同时设置一个或多个 key-value 对
mset k1 aaa k2 bbb k3 ccc
#查看所有的key
keys *
#mget <k1> <v1> 取出设置一个或多个value值
mget k1 k2 k3
#msetnx <k1> <v1> [<k2> <v2>] 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在有一个存在则失败
msetnx k11 v11 k12 v12
#getrange<key><起始位置><结束位置>
获取值的范围,类似于java中的substring,前包,后包
set name lucymary
getrange name 0 3
##setrange<key><起始位置><value>
用<value>复写<key>所储存的字符串值,从<起始位置>开始(索引从0开始)
setrange name 3 abc
get name
#setex <key><过期时间><value>
设置健值的同时,设置过期时间,单位秒
setex age 20 value30
#查看过期时间
ttl age
#getset<key><value>
以旧换新、设置了新值同时获得了就职
getset name jack
get name 

原子性
所谓原子操作就是指不会被线程调度机制打断的操作

这种操作一旦开始,就一直运行到结束,中间不会有任何context switch(切换到另一个线程)

二、原子操作
在单线程中,能够在单条指令中完成的操作都可以认为是原子操作,因为中断只能发生在指令之间
在多线程中,不能被其他进程(线程)打断的操作就叫原子操作

题:

1.java中的i++是否是原子操作?不是

2i=0;二个线程分别对i进行++100次值是多少?

2~200

数据结构

String的数据结构为简单动态字符串。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配。

如图所示,内部为当前字符串实际分配的空间capacity,一般高于实际字符串长度len。当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。

List列表

单间多值

Redis列表是最简单的字符串列表,按照顺序排序。你可以添加一个元素到列表的头部或者尾部。

它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点鑫能会较差 

常用命令

lpush\rpush <key> <value1> <value2> <value3>... 从左边/右边插入一个或多个值,类似推箱子。

lpop/rpop <key> 从左边/右边吐出一个值。值在键在,值光键亡

rpoplpush <key1> <key2>从<key1>列表右边吐出一个值,插到<key2>列表左边

lrange <key> <start> <stop> 按照索引下标获得元素(从左到右)

lindex <key> <index>按照索引下标获得元素(从左到右)

llen <key>获得列表长度

linsert <key> before/after <value> <newvalue>在<value>的前面或后面插入<newvalue>

lrem <key> <n> <value> 从左边删除n个value值(从左到右)

lset <key> <index> <value> 将列表key下标为index的值替换为value 
例如
#清空
flushdb
#清空控制台
clear
#从左边加入
lpush k1 v1 v2 v3
#查看值(表示取所有的值)
lrange k1 0 -1
#从右边加入
rpush k1 v4 v5 v6
#查看值(表示取所有的值) lrange k1 0 -1
#lpop/rpop <key> 从左边/右边吐出一个值。值在键在,值光键亡
lpop k1 
rpop k1
#rpoplpush <key1> <key2>从<key1>列表右边吐出一个值,插到<key2>列表左边
rpoplpush  k1 k2
#查看值(表示取所有的值)
lrange k2 0 -1
#lindex <key> <index>按照索引下标获得元素(从左到右)
lindex k2 0
lindex k2 2
#llen <key>获得列表长度
llen k2
#linsert <key> before/after <value> <newvalue>在<value>的前面或后面插入<newvalue>
linsert k2 before "v4" "new11"
#查看值(表示取所有的值)
lrange k2 0 -1
#lrem <key> <n> <value> 从左边删除n个value值(从左到右)
lrem  k2 2 "newv11"
#查看值(表示取所有的值)
lrange k2 0 -1
#lset <key> <index> <value> 将列表key下标为index的值替换为value 
lset k2 1 atguigu
#查看值(表示取所有的值)
lrange k2 0 -1
加入规则如下

 数据结构

List的数据结构为快速链表quickList

首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,即是压缩列表,它将所有的元素紧挨在一起存储,分配的是一块连续的内存。

当数据量比较多的时候才会变成quickList,多个ziplist连在一起,组成了quickList(双向链表)

 Redis将链表和ziplist组合成为了quicklist。也就是将多个ziplist使用双向指针串起来。这样既满足了快熟的插入删除功能又不会出现太大的空间冗余。 

Redis数据结构之Set

常用命令

sadd <key> <value1> <value2> ... 将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略

smembers <keys> 取出该集合的所有值

sismember <key> <value> 判断集合<key>是否含有该<value>值,有1,没有0

scard <key> 返回该集合的元素个数

srem <key> <value1> <value2> ... 删除集合中的某个元素

spop <key> 随机从该集合中吐出一个值

srandmember <key> <n> 随机从该集合中取出n个值。不会从集合中删除

smove <source> <distination> value 把集合中的一个值从一个集合移动到另一个集合

sinter <key1> <key2> 返回两个集合的交集元素

sunion <key1> <key2> 返回两个集合的并集元素

sdiff <key1> <key2> 返回两个集合的差集元素(key1中的,不包含在key2中的)

 示例 

#清理
flushdb
#sadd <key> <value1> <value2> ... 将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略
sadd k1 v1 v2 v3
#smembers <keys> 取出该集合的所有值
smembers k1 
#sismember <key> <value> 判断集合<key>是否含有该<value>值,有1,没有0
sismember k1 v1
#scard <key> 返回该集合的元素个数
scard k1
#srem <key> <value1> <value2> ... 删除集合中的某个元素
srem k1 v1 v2 v3
#smembers <keys> 取出该集合的所有值
smembers k1
#sadd <key> <value1> <value2> ... 将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略
sadd k2 v1 v2 v3
#srandmember <key> <n> 随机从该集合中取出n个值。不会从集合中删除
srandmember k2 2
srandmember k2 2
#smembers <keys> 取出该集合的所有值
smembers  k1
#清理
flushdb
#sadd <key> <value1> <value2> ... 将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略
sadd k1 v1 v2 v3
#sadd <key> <value1> <value2> ... 将一个或多个member元素加入到集合key中,已经存在的member元素将被忽略
sadd k2 v3 v4 v5
#smove <source> <distination> value 把集合中的一个值从一个集合移动到另一个集合
smove k1 k2 k3
#smembers <keys> 取出该集合的所有值
smembers  k1
smembers  k2
#sinter <key1> <key2> 返回两个集合的交集元素
sadd k3 v4 v6 v7
sinter k2 k3
#sunion <key1> <key2> 返回两个集合的并集元素
sunion  k2 k3 
#sdiff <key1> <key2> 返回两个集合的差集元素(key1中的,不包含在key2中的)
sdiff k2 k3

数据结构

Set的数据结构是dict字典,字典是用哈希表实现的。

Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。

Redis的set结构也一样,它的内部也使用hash结构,所有的value都指向同一个内部值

Redis数据结构之Hash

简介

Redis hash是一个键值对集合。

Redis hash 是一个 string 类型的 field(字段) 和 value(值) 的映射表,hash 特别适合用于存储对象。

Redis 中每个 hash 可以存储 232 - 1 键值对(40多亿)。

hash类型可以理解为map集合,{key1:value1,key2:value2}

常用命令

hset <key> <field> <value> 给<key>集合中的<field>键赋值<value>

hget <key> <field> 从<key>集合<field>取出value

hmset <key1> <field1> <value1> <field2> <value2>.... 批量设置hash的值

hexists <key> <field> 查看哈希表 key 中 ,给定域 field是否存在

hkeys <key> 列出该hash集合的所有field

hvals <key> 列出该hash集合的所有value

hincrby <key> <field> <increment> 为哈希表 key中的域field的值加上增量increment ,非数字型会报错

hsetnx <key> <field> <value> 将哈希表 key中的域 field 的值设置为value,当且仅当域field不存在。

 示例

#清空数据库
flushdb
#hset <key> <field> <value> 给<key>集合中的<field>键赋值<value>
hset user:1001 id 1
hset user:1001 name zhangsan 
#hget <key> <field> 从<key>集合<field>取出value
hget user:1001 id 
hget user:1001 name
#hmset <key1> <field1> <value1> <field2> <value2>.... 批量设置hash的值
hmset  user:1002 id 2 name list age 30
#hexists <key> <field> 查看哈希表 key 中 ,给定域 field是否存在
hexists user1002 id
hexists user:1002 id
hexists user:1002 name
hexists user:1002 gender
有的话返回没有返回2
#hkeys <key> 列出该hash集合的所有field
hkeys user:1002
#hvals <key> 列出该hash集合的所有value 
hkeys user:1002
#hincrby <key> <field> <increment> 为哈希表 key中的域field的值加上增量increment ,非数字型会报错
hincrby  user:1002 age 2
#hsetnx <key> <field> <value> 将哈希表 key中的域 field 的值设置为value,当且仅当域field不存在。
hsetnx user:1002 age 40

数据结构

Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable

 Redis中Zset集合

Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。

不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。

因为元素是有序的, 所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。

访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。

常用命令

zadd <key><score1><value1><score2><value2>…

将一个或多个 member 元素及其 score 值加入到有序集 key 当中。

zrange <key><start><stop> [WITHSCORES]

返回有序集 key 中,下标在<start><stop>之间的元素

带WITHSCORES,可以让分数一起和值返回到结果集。

zrangebyscore key minmax [withscores] [limit offset count]

返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。

zrevrangebyscore key maxmin [withscores] [limit offset count]

同上,改为从大到小排列。

zincrby <key><increment><value> 为元素的score加上增量

zrem <key><value>删除该集合下,指定值的元素

zcount <key><min><max>统计该集合,分数区间内的元素个数

zrank <key><value>返回该值在集合中的排名,从0开始。 

示例

#zadd <key><score1><value1><score2><value2>…
zadd topn 200 java 300 c++ 400 mysql  500 php
#zrange <key><start><stop> [WITHSCORES]
#查看key
zrange topn 0 -1
#查看数字和key
zrange topn 0 -1 withscores
#zrangebyscore key minmax [withscores] [limit offset count]
zrangebyscore topn 200 500 
zrangebyscore topn 200 500  withscores
#zrevrangebyscore key maxmin [withscores] [limit offset count]
zrevrangebyscore topn 500 300 
zrevrangebyscore  topn 500   300 withscores
#zincrby <key><increment><value> 为元素的score加上增量
zincrby  topn 50 java
#zrem <key><value>删除该集合下,指定值的元素
zrem  topn 50 java
#zcount <key><min><max>统计该集合,分数区间内的元素个数
zcount  topn 500 1000
#zrank <key><value>返回该值在集合中的排名,从0开始。 
zrank  topn mysqls

数据结构

zset为有序自动去重的集合数据类型,其编码可以是 zipList或者 skipList

1:ziplist


ziplist 编码的有序集合对象使用压缩列表作为底层实现, 每个集合元素使用两个紧挨在一起的压缩列表节点来保存,第一个节点保存元素的成员(member),而第二个元素则保存元素的分值(score)。

压缩列表内的集合元素按分值从小到大进行排序,分值较小的元素被放置在靠近表头的方向, 而分值较大的元素则被放置在靠近表尾的方向。

如果我们执行以下 ZADD 命令, 那么服务器将创建一个有序集合对象作为 price 键的值:

此处的ziplist与Hash类型中的ziplist是同一个编码。

2:skipList


skiplist 编码的有序集合对象使用 zset 结构作为底层实现, 一个zset 结构同时包含一个字典和一个跳跃表:

zset 结构中的 zsl 跳跃表按分值从小到大保存了所有集合元素, 每个跳跃表节点都保存了一个集合元素:跳跃表节点的 object 属性保存了元素的成员,而跳跃表节点的 score 属性则保存了元素的分值。

skipList在Redis中的运用场景只有一个,那就是作为有序列表zset的底层实现。跳跃表可以保证增、删、查等操作时的时间复杂度为O(logN),这个性能可以与平衡树相媲美,但实现方式上却更加简单,唯一美中不足的就是跳表占用的空间比较大,其实就是一种空间换时间的思想。

跳跃表的结构如下所示

Redis中跳表一个节点最高可以达到64层,一个跳表中最多可以存储2^64个元素。跳表中,每个节点都是一个skiplistNode,

每个跳表的节点也都会维护着一个score值,这个值在跳表中是按照从小到大的顺序排列好的。

跳表的结构定义如下所示:

header:指向跳表的头节点,通过这个指针可以直接找到表头,时间复杂度为O(1);

tail:指向跳表的尾节点,通过这个指针可以直接找到表尾,时间复杂度为o(1);

length:记录跳表的长度,即不包括头节点,整个跳表中有多少个元素;

level:记录当前跳表内,所有节点中层数最大的level;

3:编码转换


当有序集合对象可以同时满足以下两个条件时,对象使用 ziplist 编码:

1.有序集合保存的元素数量小于128个;

2.有序集合保存的所有元素成员的长度都小于64字节;

不能满足以上两个条件的有序集合对象将使用 skiplist 编码。

以上两个条件的上限值是可以修改的,具体请看配置文件中关于 zset-max-ziplist-entries 选项和 zset-max-ziplist-value 选项的说明。对于使用 ziplist编码的有序集合对象来说,当使用 ziplist编码所需的两个条件中的任意一个不能被满足时,程序就会执行编码转换操作,将原本储存在压缩列表里面的所有集合元素转移到zset结构里面,并将对象的编码从ziplist 改为skiplist。

4:要点总结
1:ZSet的编码可以是 ziplist 或者 skiplist。

2:ZSet对象 ziplist 或者 skiplist编码,符合条件时可发生编码转换。

3:跳跃表是ZSet的底层实现之一,除此之外它在 Redis 中没有其他应用。

4:跳跃表中的节点按照分值大小进行排序,当分值相同时,节点按照成员对象的大小进行排序。

5:跳跃表的增删改查


1:查
假设现在要查找9这个节点,步骤如下:

①从head开始遍历,指针指向4这个节点,由于4<9,且同层的下一个指针指向NULL,所以下级一层

②跳到4节点所在的层,同理,4<9,且同层下一个指针指向10,再下降一层

③依次最终跳到第一层,第一层是一个双向链表,由于7<9,所以开始向后遍历,查找到9就返回。

2:删
删除的过程前期与查找相似,先定位到元素所在的位置,再进行删除,最后更新一下指针、更新一下最高的层数。

3:改
先是判断这个value是否存在,如果存在就是更新的过程,如果不存在就是插入过程。

4:增
从 head 节点开始,先是在 head 开始降层来查找到最后一个比自己小的节点。

直接上图

 配置文件详解

####### NETWORK ############

 
# 指定 redis 只接收来自于该IP地址的请求,如果不进行设置,那么将处理所有请求
bind 127.0.0.1
 
#是否开启保护模式,默认开启。要是配置里没有指定bind和密码。开启该参数后,redis只会本地进行访问,
拒绝外部访问。要是开启了密码和bind,可以开启。否则最好关闭,设置为no
protected-mode yes
 
#redis监听的端口号
port 6379
 
#此参数确定了TCP连接中已完成队列(完成三次握手之后)的长度, 当然此值必须不大于Linux系统定义
的/proc/sys/net/core/somaxconn值,默认是511,而Linux的默认参数值是128。当系统并发量大并且客户端
速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是128,对于负载很大的服务程序来说
大大的不够。一般会将它修改为2048或者更大。在/etc/sysctl.conf中添加:net.core.somaxconn = 2048,
然后在终端中执行sysctl -p
tcp-backlog 511
 
#此参数为设置客户端空闲超过timeout,服务端会断开连接,为0则服务端不会主动断开连接,不能小于0
timeout 0
 
#tcp keepalive参数。如果设置不为0,就使用配置tcp的SO_KEEPALIVE值,使用keepalive有两个好处:检测挂
掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在Linux内核中,设置了
keepalive,redis会定时给对端发送ack。检测到对端关闭需要两倍的设置值
tcp-keepalive 300
 
#是否在后台执行,yes:后台运行;no:不是后台运行
daemonize yes
 
#redis的进程文件
pidfile /var/run/redis/redis.pid
 
#指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的信息,
但是没有debug级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重要的信息)
loglevel notice
 
#指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的redis标准输出是/dev/null
logfile /usr/local/redis/var/redis.log
 
 
#是否打开记录syslog功能
# syslog-enabled no
 
#syslog的标识符。
# syslog-ident redis
 
#日志的来源、设备
# syslog-facility local0
 
#数据库的数量,默认使用的数据库是0。可以通过”SELECT 【数据库序号】“命令选择一个数据库,序号从0开始
databases 16

 

################# SNAPSHOTTING ################

#RDB核心规则配置 save <指定时间间隔> <执行指定次数更新操作>,满足条件就将内存中的数据同步到硬盘
中。官方出厂配置默认是 900秒内有1个更改,300秒内有10个更改以及60秒内有10000个更改,则将内存中的
数据快照写入磁盘。
若不想用RDB方案,可以把 save "" 的注释打开,下面三个注释
#   save ""
save 900 1
save 300 10
save 60 10000
 
#当RDB持久化出现错误后,是否依然进行继续进行工作,yes:不能进行工作,no:可以继续进行工作,可以通
过info中的rdb_last_bgsave_status了解RDB持久化是否有错误
stop-writes-on-bgsave-error yes
 
#配置存储至本地数据库时是否压缩数据,默认为yes。Redis采用LZF压缩方式,但占用了一点CPU的时间。若关闭该选项,
但会导致数据库文件变的巨大。建议开启。
rdbcompression yes
 
#是否校验rdb文件;从rdb格式的第五个版本开始,在rdb文件的末尾会带上CRC64的校验和。这跟有利于文件的
容错性,但是在保存rdb文件的时候,会有大概10%的性能损耗,所以如果你追求高性能,可以关闭该配置
rdbchecksum yes
 
#指定本地数据库文件名,一般采用默认的 dump.rdb
dbfilename dump.rdb
 
#数据目录,数据库的写入会在这个目录。rdb、aof文件也会写在这个目录
dir /usr/local/redis/var

 

############## REPLICATION ############

 
# 复制选项,slave复制对应的master。
# replicaof <masterip> <masterport>
 
#如果master设置了requirepass,那么slave要连上master,需要有master的密码才行。masterauth就是用来
配置master的密码,这样可以在连上master后进行认证。
# masterauth <master-password>
 
#当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果slave-serve-stale-data设置为
yes(默认设置),从库会继续响应客户端的请求。2) 如果slave-serve-stale-data设置为no,
INFO,replicaOF, AUTH, PING, SHUTDOWN, REPLCONF, ROLE, CONFIG,SUBSCRIBE, UNSUBSCRIBE,
PSUBSCRIBE, PUNSUBSCRIBE, PUBLISH, PUBSUB,COMMAND, POST, HOST: and LATENCY命令之外的任何请求
都会返回一个错误”SYNC with master in progress”。
replica-serve-stale-data yes
 
#作为从服务器,默认情况下是只读的(yes),可以修改成NO,用于写(不建议)
#replica-read-only yes
 
# 是否使用socket方式复制数据。目前redis复制提供两种方式,disk和socket。如果新的slave连上来或者
重连的slave无法部分同步,就会执行全量同步,master会生成rdb文件。有2种方式:disk方式是master创建
一个新的进程把rdb文件保存到磁盘,再把磁盘上的rdb文件传递给slave。socket是master创建一个新的进
程,直接把rdb文件以socket的方式发给slave。disk方式的时候,当一个rdb保存的过程中,多个slave都能
共享这个rdb文件。socket的方式就的一个个slave顺序复制。在磁盘速度缓慢,网速快的情况下推荐用socket方式。
repl-diskless-sync no
 
#diskless复制的延迟时间,防止设置为0。一旦复制开始,节点不会再接收新slave的复制请求直到下一个rdb传输。
所以最好等待一段时间,等更多的slave连上来
repl-diskless-sync-delay 5
 
#slave根据指定的时间间隔向服务器发送ping请求。时间间隔可以通过 repl_ping_slave_period 来设置,默认10秒。
# repl-ping-slave-period 10
 
# 复制连接超时时间。master和slave都有超时时间的设置。master检测到slave上次发送的时间超过repl-timeout,即认为slave离线,清除该slave信息。slave检测到上次和master交互的时间超过repl-timeout,则认为master离线。需要注意的是repl-timeout需要设置一个比repl-ping-slave-period更大的值,不然会经常检测到超时
# repl-timeout 60
 
 
#是否禁止复制tcp链接的tcp nodelay参数,可传递yes或者no。默认是no,即使用tcp nodelay。如果
master设置了yes来禁止tcp nodelay设置,在把数据复制给slave的时候,会减少包的数量和更小的网络带
宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟,但是在数据量传输很大的场景下,建议选择yes
repl-disable-tcp-nodelay no
 
#复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在slave离线的时候,不需要完
全复制master的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给slave,就能恢复正常复制状
态。缓冲区的大小越大,slave离线的时间可以更长,复制缓冲区只有在有slave连接的时候才分配内存。没有
slave的一段时间,内存会被释放出来,默认1m
# repl-backlog-size 1mb
 
# master没有slave一段时间会释放复制缓冲区的内存,repl-backlog-ttl用来设置该时间长度。单位为秒。
# repl-backlog-ttl 3600
 
# 当master不可用,Sentinel会根据slave的优先级选举一个master。最低的优先级的slave,当选master。
而配置成0,永远不会被选举
replica-priority 100
 
#redis提供了可以让master停止写入的方式,如果配置了min-replicas-to-write,健康的slave的个数小于N,mater就禁止写入。master最少得有多少个健康的slave存活才能执行写命令。这个配置虽然不能保证N个slave都一定能接收到master的写操作,但是能避免没有足够健康的slave的时候,master不能写入来避免数据丢失。设置为0是关闭该功能
# min-replicas-to-write 3
 
# 延迟小于min-replicas-max-lag秒的slave才认为是健康的slave
# min-replicas-max-lag 10
 
# 设置1或另一个设置为0禁用这个特性。
# Setting one or the other to 0 disables the feature.
# By default min-replicas-to-write is set to 0 (feature disabled) and
# min-replicas-max-lag is set to 10.

 

########## SECURITY ############

#requirepass配置可以让用户使用AUTH命令来认证密码,才能使用其他命令。这让redis可以使用在不受信任的
网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用requirepass的时候需要
注意,因为redis太快了,每秒可以认证15w次密码,简单的密码很容易被攻破,所以最好使用一个更复杂的密码
# requirepass foobared
 
#把危险的命令给修改成其他名称。比如CONFIG命令可以重命名为一个很难被猜到的命令,这样用户不能使用,而
内部工具还能接着使用
# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
 
#设置成一个空的值,可以禁止一个命令
# rename-command CONFIG ""

 

############ CLIENTS ###########

# 设置能连上redis的最大客户端连接数量。默认是10000个客户端连接。由于redis不区分连接是客户端连接还
是内部打开文件或者和slave连接等,所以maxclients最小建议设置到32。如果超过了maxclients,redis会给
新的连接发送’max number of clients reached’,并关闭连接
# maxclients 10000

  

####### MEMORY MANAGEMENT #########

redis配置的最大内存容量。当内存满了,需要配合maxmemory-policy策略进行处理。注意slave的输出缓冲区
是不计算在maxmemory内的。所以为了防止主机内存使用完,建议设置的maxmemory需要更小一些
maxmemory 122000000
 
#内存容量超过maxmemory后的处理策略。
#volatile-lru:利用LRU算法移除设置过过期时间的key。
#volatile-random:随机移除设置过过期时间的key。
#volatile-ttl:移除即将过期的key,根据最近过期时间来删除(辅以TTL)
#allkeys-lru:利用LRU算法移除任何key。
#allkeys-random:随机移除任何key。
#noeviction:不移除任何key,只是返回一个写错误。
#上面的这些驱逐策略,如果redis没有合适的key驱逐,对于写命令,还是会返回错误。redis将不再接收写请求,只接收get请求。
写命令包括:set setnx setex append incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby getset mset msetnx exec sort。
# maxmemory-policy noeviction
 
# lru检测的样本数。使用lru或者ttl淘汰算法,从需要淘汰的列表中随机选择sample个key,选出闲置时间最长的key移除
# maxmemory-samples 5
 
# 是否开启salve的最大内存
# replica-ignore-maxmemory yes
 ##########################    LAZY FREEING    #############################

#以非阻塞方式释放内存
#使用以下配置指令调用了
lazyfree-lazy-eviction no
lazyfree-lazy-expire no
lazyfree-lazy-server-del no
replica-lazy-flush no

######## APPEND ONLY MODE #########

#Redis 默认不开启。它的出现是为了弥补RDB的不足(数据的不一致性),所以它采用日志的形式来记录每个写
操作,并追加到文件中。Redis 重启的会根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
默认redis使用的是rdb方式持久化,这种方式在许多应用中已经足够用了。但是redis如果中途宕机,会导致可
能有几分钟的数据丢失,根据save来策略进行持久化,Append Only File是另一种持久化方式,可以提供更好的
持久化特性。Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件,每次启动时Redis都会先把这
个文件的数据读入内存里,先忽略RDB文件。若开启rdb则将no改为yes
appendonly no
 
指定本地数据库文件名,默认值为 appendonly.aof
appendfilename "appendonly.aof"
 
 
#aof持久化策略的配置
#no表示不执行fsync,由操作系统保证数据同步到磁盘,速度最快
#always表示每次写入都执行fsync,以保证数据同步到磁盘
#everysec表示每秒执行一次fsync,可能会导致丢失这1s数据
# appendfsync always
appendfsync everysec
# appendfsync no
 
# 在aof重写或者写入rdb文件的时候,会执行大量IO,此时对于everysec和always的aof模式来说,执行
fsync会造成阻塞过长时间,no-appendfsync-on-rewrite字段设置为默认设置为no。如果对延迟要求很高的
应用,这个字段可以设置为yes,否则还是设置为no,这样对持久化特性来说这是更安全的选择。设置为yes表
示rewrite期间对新写操作不fsync,暂时存在内存中,等rewrite完成后再写入,默认为no,建议yes。Linux的
默认fsync策略是30秒。可能丢失30秒数据
no-appendfsync-on-rewrite no
 
#aof自动重写配置。当目前aof文件大小超过上一次重写的aof文件大小的百分之多少进行重写,即当aof文件
增长到一定大小的时候Redis能够调用bgrewriteaof对日志文件进行重写。当前AOF文件大小是上次日志重写得
到AOF文件大小的二倍(设置为100)时,自动启动新的日志重写过程
auto-aof-rewrite-percentage 100
 
#设置允许重写的最小aof文件大小,避免了达到约定百分比但尺寸仍然很小的情况还要重写
auto-aof-rewrite-min-size 64mb
 
#aof文件可能在尾部是不完整的,当redis启动的时候,aof文件的数据被载入内存。重启可能发生在redis所
在的主机操作系统宕机后,尤其在ext4文件系统没有加上data=ordered选项(redis宕机或者异常终止不会造
成尾部不完整现象。)出现这种现象,可以选择让redis退出,或者导入尽可能多的数据。如果选择的是yes,
当截断的aof文件被导入的时候,会自动发布一个log给客户端然后load。如果是no,用户必须手动redis-
check-aof修复AOF文件才可以
aof-load-truncated yes
 
#加载redis时,可以识别AOF文件以“redis”开头。
#字符串并加载带前缀的RDB文件,然后继续加载AOF尾巴
aof-use-rdb-preamble yes

  

########### LUA SCRIPTING #########

# 如果达到最大时间限制(毫秒),redis会记个log,然后返回error。当一个脚本超过了最大时限。只有
SCRIPT KILL和SHUTDOWN NOSAVE可以用。第一个可以杀没有调write命令的东西。要是已经调用了write,只能
用第二个命令杀
lua-time-limit 5000

########### REDIS CLUSTER #########

# 集群开关,默认是不开启集群模式
# cluster-enabled yes
 
#集群配置文件的名称,每个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需要手动
配置,这个配置文件有Redis生成并更新,每个Redis集群节点需要一个单独的配置文件,请确保与实例运行的系
统中配置文件名称不冲突
# cluster-config-file nodes-6379.conf
 
#节点互连超时的阀值。集群节点超时毫秒数
# cluster-node-timeout 15000
 
#在进行故障转移的时候,全部slave都会请求申请为master,但是有些slave可能与master断开连接一段时间
了,导致数据过于陈旧,这样的slave不应该被提升为master。该参数就是用来判断slave节点与master断线的时
间是否过长。判断方法是:
#比较slave断开连接的时间和(node-timeout * slave-validity-factor) + repl-ping-slave-period
#如果节点超时时间为三十秒, 并且slave-validity-factor为10,假设默认的repl-ping-slave-period是10
秒,即如果超过310秒slave将不会尝试进行故障转移
# cluster-replica-validity-factor 10
 
# master的slave数量大于该值,slave才能迁移到其他孤立master上,如这个参数若被设为2,那么只有当一
个主节点拥有2 个可工作的从节点时,它的一个从节点会尝试迁移
# cluster-migration-barrier 1
 
#默认情况下,集群全部的slot有节点负责,集群状态才为ok,才能提供服务。设置为no,可以在slot没有全
部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的master一直在接受写请求,而
造成很长时间数据不一致
# cluster-require-full-coverage yes

######### CLUSTER DOCKER/NAT support ##############

#*群集公告IP
#*群集公告端口
#*群集公告总线端口
# Example:
#
# cluster-announce-ip 10.1.1.5
# cluster-announce-port 6379
# cluster-announce-bus-port 6380

############### SLOW LOG ####################

# slog log是用来记录redis运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录在slow log
中,slog log保存在内存中,所以没有IO操作。
#执行时间比slowlog-log-slower-than大的请求记录到slowlog里面,单位是微秒,所以1000000就是1秒。注
意,负数时间会禁用慢查询日志,而0则会强制记录所有命令。
slowlog-log-slower-than 10000
 
#慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只要有足
够的内存就行。你可以通过 SLOWLOG RESET 来释放内存
slowlog-max-len 128 

############ LATENCY MONITOR ############

#延迟监控功能是用来监控redis中执行比较缓慢的一些操作,用LATENCY打印redis实例在跑命令时的耗时图表。
只记录大于等于下边设置的值的操作。0的话,就是关闭监视。默认延迟监控功能是关闭的,如果你需要打开,也
可以通过CONFIG SET命令动态设置
latency-monitor-threshold 0


############ EVENT NOTIFICATION #############

#键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。因为开启键空间通知功能需要消耗一些 CPU ,所以在默认配置下,该功能处于关闭状态。
#notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知:
##K 键空间通知,所有通知以 __keyspace@__ 为前缀
##E 键事件通知,所有通知以 __keyevent@__ 为前缀
##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
##$ 字符串命令的通知
##l 列表命令的通知
##s 集合命令的通知
##h 哈希命令的通知
##z 有序集合命令的通知
##x 过期事件:每当有过期键被删除时发送
##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送
##A 参数 g$lshzxe 的别名
#输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。详细使用可以参考http://redis.io/topics/notifications
 
notify-keyspace-events ""

  

########## ADVANCED CONFIG #########

# 数据量小于等于hash-max-ziplist-entries的用ziplist,大于hash-max-ziplist-entries用hash
hash-max-ziplist-entries 512
 
# value大小小于等于hash-max-ziplist-value的用ziplist,大于hash-max-ziplist-value用hash
hash-max-ziplist-value 64
 
#-5:最大大小:64 KB<--不建议用于正常工作负载
#-4:最大大小:32 KB<--不推荐
#-3:最大大小:16 KB<--可能不推荐
#-2:最大大小:8kb<--良好
#-1:最大大小:4kb<--良好
list-max-ziplist-size -2
 
#0:禁用所有列表压缩
#1:深度1表示“在列表中的1个节点之后才开始压缩,
#从头部或尾部
#所以:【head】->node->node->…->node->【tail】
#[头部],[尾部]将始终未压缩;内部节点将压缩。
#2:[头部]->[下一步]->节点->节点->…->节点->[上一步]->[尾部]
#2这里的意思是:不要压缩头部或头部->下一个或尾部->上一个或尾部,
#但是压缩它们之间的所有节点。
#3:[头部]->[下一步]->[下一步]->节点->节点->…->节点->[上一步]->[上一步]->[尾部]
list-compress-depth 0
 
# 数据量小于等于set-max-intset-entries用iniset,大于set-max-intset-entries用set
set-max-intset-entries 512
 
#数据量小于等于zset-max-ziplist-entries用ziplist,大于zset-max-ziplist-entries用zset
zset-max-ziplist-entries 128
 
#value大小小于等于zset-max-ziplist-value用ziplist,大于zset-max-ziplist-value用zset
zset-max-ziplist-value 64
 
#value大小小于等于hll-sparse-max-bytes使用稀疏数据结构(sparse),大于hll-sparse-max-bytes使
用稠密的数据结构(dense)。一个比16000大的value是几乎没用的,建议的value大概为3000。如果对CPU要
求不高,对空间要求较高的,建议设置到10000左右
hll-sparse-max-bytes 3000
 
#宏观节点的最大流/项目的大小。在流数据结构是一个基数
#树节点编码在这项大的多。利用这个配置它是如何可能#大节点配置是单字节和
#最大项目数,这可能包含了在切换到新节点的时候
# appending新的流条目。如果任何以下设置来设置
# ignored极限是零,例如,操作系统,它有可能只是一集
通过设置限制最大#纪录到最大字节0和最大输入到所需的值
stream-node-max-bytes 4096
stream-node-max-entries 100
 
#Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash,可以降低内存的使用。当你
的使用场景中,有非常严格的实时性需要,不能够接受Redis时不时的对请求有2毫秒的延迟的话,把这项配置
为no。如果没有这么严格的实时性要求,可以设置为yes,以便能够尽可能快的释放内存
activerehashing yes
 
##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓慢的客户端。
#对于normal client,第一个0表示取消hard limit,第二个0和第三个0表示取消soft limit,normal 
client默认取消限制,因为如果没有寻问,他们是不会接收数据的
client-output-buffer-limit normal 0 0 0
 
#对于slave client和MONITER client,如果client-output-buffer一旦超过256mb,又或者超过64mb持续
60秒,那么服务器就会立即断开客户端连接
client-output-buffer-limit replica 256mb 64mb 60
 
#对于pubsub client,如果client-output-buffer一旦超过32mb,又或者超过8mb持续60秒,那么服务器就
会立即断开客户端连接
client-output-buffer-limit pubsub 32mb 8mb 60
 
# 这是客户端查询的缓存极限值大小
# client-query-buffer-limit 1gb
 
#在redis协议中,批量请求,即表示单个字符串,通常限制为512 MB。但是您可以更改此限制。
# proto-max-bulk-len 512mb
 
#redis执行任务的频率为1s除以hz
hz 10
 
#当启用动态赫兹时,实际配置的赫兹将用作作为基线,但实际配置的赫兹值的倍数
#在连接更多客户端后根据需要使用。这样一个闲置的实例将占用很少的CPU时间,而繁忙的实例将反应更灵敏
dynamic-hz yes
 
#在aof重写的时候,如果打开了aof-rewrite-incremental-fsync开关,系统会每32MB执行一次fsync。这
对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值
aof-rewrite-incremental-fsync yes
 
#在rdb保存的时候,如果打开了rdb-save-incremental-fsync开关,系统会每32MB执行一次fsync。这
对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值
rdb-save-incremental-fsync yes
 

############ ACTIVE DEFRAGMENTATION ##############

# 已启用活动碎片整理
# activedefrag yes
 
# 启动活动碎片整理的最小碎片浪费量
# active-defrag-ignore-bytes 100mb
 
# 启动活动碎片整理的最小碎片百分比
# active-defrag-threshold-lower 10
 
# 我们使用最大努力的最大碎片百分比
# active-defrag-threshold-upper 100
 
# 以CPU百分比表示的碎片整理的最小工作量
# active-defrag-cycle-min 5
 
# 在CPU的百分比最大的努力和碎片整理
# active-defrag-cycle-max 75
 
#将从中处理的set/hash/zset/list字段的最大数目
#主词典扫描
# active-defrag-max-scan-fields 1000

Redis发布和订阅

Redis 发布订阅

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:

当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:

发布订阅命令行实现

以下实例演示了发布订阅是如何工作的,需要开启两个 redis-cli 客户端。

在我们实例中我们创建了订阅频道名为 channell:

第一个 redis-cli 客户端

redis 127.0.0.1:6379> SUBSCRIBE channell

Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "runoobChat"
3) (integer) 1 

现在,我们先重新开启个 redis 客户端,然后在同一个频道 channell发布两次消息,订阅者就能接收到消息。

第二个 redis-cli 客户端

redis 127.0.0.1:6379> PUBLISH channell  "Redis PUBLISH test"
(integer) 1

redis 127.0.0.1:6379> PUBLISH channell "Learn redis by runoob.com"
(integer) 1


# 订阅者的客户端会显示如下消息

1) "subscribe"
2) "channell"
3) (integer) 1
1) "message"
2) "channell"
3) "Redis PUBLISH test"

redis6新增数据类型Bitmaps

简介

现代计算机用二进制(位) 作为信息的基础单位, 1个字节等于8位, 例如“abc”字符串是由3个字节组成, 但实际在计算机存储时将其用二进制表示, “abc”分别对应的ASCII码分别是97、 98、 99, 对应的二进制分别是01100001、 01100010和01100011,如下图

合理地使用操作位能够有效地提高内存使用率和开发效率。

Redis提供了Bitmaps这个“数据类型”可以实现对位的操作:

(1)Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。

(2)Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量。

命令

setbit

(1)格式

setbit[key][offset][value]设置Bitmaps中某个偏移量的值(0或1)

(2)实例

每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id。

设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图

setbit users:20210101 1 

setbit users:20210101 6 1

setbit users:20210101 15 1

setbit users:20210101 19 1

注:

很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。

在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。

getbit

(1)格式

getbit[key][offset]获取Bitmaps中某个偏移量的值

 getbit users:20210101 1

 getbit users:20210101 6

 getbit users:20210101 8

获取键的第offset位的值(从0开始算)

bitcount

统计字符串被设置为1的bit数。一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start 或 end 参数,可以让计数只在特定的位上进行。start 和 end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,start、end 是指bit组的字节的下标数,二者皆包含。

(1)格式
bitcount[key][start end] 统计字符串从start字节到end字节比特值为1的数量

bitcount users:20210101

bitcount users:20210101 1 3  

举例: K1 【01000001 01000000 00000000 00100001】,对应【0,1,2,3】

bitcount K1 1 2 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000
–》bitcount K1 1 2   --》1

bitcount K1 1 3 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000 00100001
–》bitcount K1 1 3  --》3

bitcount K1 0 -2 : 统计下标0到下标倒数第2,字节组中bit=1的个数,即01000001 01000000 00000000
–》bitcount K1 0 -2  --》3

注意:redis的setbit设置或清除的是bit位置,而bitcount计算的是byte位置。

bitop

(1)格式
bitop and(or/not/xor) [destkey] [key…]

bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。

(2)实例

2020-11-04 日访问网站的userid=1,2,5,9。
setbit unique:users:20201104 1 1
setbit unique:users:20201104 2 1
setbit unique:users:20201104 5 1
setbit unique:users:20201104 9 1

2020-11-03 日访问网站的userid=0,1,4,9。
setbit unique:users:20201103 0 1
setbit unique:users:20201103 1 1
setbit unique:users:20201103 4 1
setbit unique:users:20201103 9 1

计算出两天都访问过网站的用户数量
bitop and unique:users:and:20201104_03
unique:users:20201103 unique:users:20201104

​
bitop and unique:users:and:20201104_03 unique:users:20201103 unique:users:20201104
bitcount unique:users:and:20201104_03

​

计算出任意一天都访问过网站的用户数量(例如月活跃就是类似这种) , 可以使用or求并集

bitop or unique:users:or:20201104_03 unique:users:20201103 unique:users:20201104
bitcount unique:users:or:20201104_03

BItmaps与set进行一个对比

在这里插入图片描述
但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0。

在这里插入图片描述

redis6新增数据类型HyperLogLog

简介

在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。

但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。

解决基数问题有很多种方案:

(1)数据存储在MySQL表中,使用distinct count计算不重复个数

(2)使用Redis提供的hash、set、bitmaps等数据结构来处理

以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。

能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog
Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。

在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。

但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

什么是基数?

比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。

命令

pfadd

(1)格式
pfadd [key][element] [element …] 添加指定元素到 HyperLogLog 中

pfcount

(1)格式
pfcount[key] [key …] 计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可

pfmerge

(1)格式
pfmerge [sourcekey …] 将一个或多个HLL合并后的结果存储在另一个HLL中,比如每月活跃用户可以使用每天的活跃用户来合并计算可得

redis6新增数据类型Geospatial

简介

Redis 3.2 中增加了对GEO类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

命令

geoadd

(1)格式
geoadd[key][ longitude][latitude][member] [longitude latitude member…] 添加地理位置(经度,纬度,名称)

(2)实例

geoadd china:city 121.47 31.23 shanghai
geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing

两极无法直接添加,一般会下载城市数据,直接通过 Java 程序一次性导入。
有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。
当坐标位置超出指定范围时,该命令将会返回一个错误。
已经添加的数据,是无法再次往里面添加的。

geopos

(1)格式
geopos [key][member] [member…] 获得指定地区的坐标值

geodist

(1)格式
geodist [m|km|ft|mi ] 获取两个位置之间的直线距离

(2)实例
获取两个位置之间的直线距离

单位:
m 表示单位为米[默认值]。
km 表示单位为千米。
mi 表示单位为英里。
ft 表示单位为英尺。
如果用户没有显式地指定单位参数, 那么 GEODIST 默认使用米作为单位

georadius

(1)格式
georadius[key][ longitude][latitude]radius m|km|ft|mi 以给定的经纬度为中心,找出某一半径内的元素

经度 纬度 距离 单位

  

  

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值