Redis中五大基本数据类型和三种特殊数据类型详解


以下是Redis相关笔记总结,方便自己以后复习,同时也希望对大家有所帮助。

内容地址链接
Redis在Linux环境下的详细安装教程https://blog.csdn.net/BBQ__ZXB/article/details/123905061
Redis中五大基本数据类型和三种特殊数据类型https://blog.csdn.net/BBQ__ZXB/article/details/124169168
Redis中基本事务操作及乐观锁的实现https://blog.csdn.net/BBQ__ZXB/article/details/124192251
Java中使用JedisAPI操作Redis中五大基本数据类型https://blog.csdn.net/BBQ__ZXB/article/details/124194220
Spring boot整合Redis(入门教程)https://blog.csdn.net/BBQ__ZXB/article/details/124301234
Redis主从复制详解(入门教程)https://blog.csdn.net/BBQ__ZXB/article/details/124802602
Spring boot整合Redis实现发布订阅(超详细)https://blog.csdn.net/BBQ__ZXB/article/details/124980860
Redis执行save命令时报错ERRhttps://blog.csdn.net/BBQ__ZXB/article/details/123995289

介绍

概念

Redis 是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。 它支持多种类型的数据结构,如 字符串(strings), 散列(hashes), 列表(lists), 集合(sets), 有序集合(sorted sets) 与范围查询, bitmaps, hyperloglogs 和 地理空间(geospatial) 索引半径查询。 Redis 内置了 复制(replication),LUA脚本(Lua scripting), LRU驱动事件(LRU eviction),事务(transactions) 和不同级别的 磁盘持久化(persistence), 并通过 Redis哨兵(Sentinel)和自动 分区(Cluster)提供高可用性(high availability)。

基本命令

#############################################基础命令#############################################
127.0.0.1:6379> select 3   #切换数据库
OK
127.0.0.1:6379[3]> dbsize  #查看DB大小
(integer) 0
#查看数据库所有的key
keys *   
#set key
set {key} {value}  
 #get key
get {key}
#清除当前数据库
flushdb 
#清除所有数据库 
flushall 
#判断某个key是否存在
exists {name} 
#1表示当前库,在当前库删除key为{name}的键值对
move {name} 1  
#设置key为{name}的键值对有效时间为{seconds}秒 比如 expir name 10
expire {name} {43}  
#可以查看key为{name}的键值对的有效时间剩余时间
ttl {name}  
#查看当前key的类型
type {key} 
#给key为key1的值后面追加字符串value
append {key1} "value"  

redis是单线程的

redis是很快的!官方表示,redis是基于内存操作的,CPU不是redis性能瓶颈,redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程,就使用单线程了!

Redis是C 语言写的,官方提供的数据为100000+的QPS,完全不比同样是使用key-vale的Memecache差!Redis为什么单线程还这么快?

  1. 误区1∶高性能的服务器一定是多线程的?
  2. 误区2︰多线程(CPU上下文会切换! )一定比单线程效率高!
    先去CPU>内存>硬盘的速度要有所了解!

核心: redis是将所有的数据全部放在内存中的,所以说使用单线程去操作效率就是最高的,多线程(CPU上下文会切换︰会耗时),对于内存系统来说,如果没有上下文切换效率就是最高的!多次读写都是在一个CPU上的,在内存情况下,这个就是最佳的方案!


五大基本数据类型

String

命令

  1. 基本命令
127.0.0.1:6379> set key1 v1		#设置值
OK
127.0.0.1:6379> get key1		#获取值
"v1"
127.0.0.1:6379> exists key1		#判断key1是否存在
(integer) 1
127.0.0.1:6379> append key1 "hello"		#追加字符串,如果当前key不存在就相当于set key
(integer) 7
127.0.0.1:6379> get key1
"v1hello"
127.0.0.1:6379> strlen key1		#获取字符串长度
(integer) 7
127.0.0.1:6379> append key1 ",huhuhu"
(integer) 14
127.0.0.1:6379> get key1
"v1hello,huhuhu"
  1. i++/i+=
127.0.0.1:6379> set views 0		#初始浏览量为0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views		#自增1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views		#自减1
(integer) 1
127.0.0.1:6379> incrby views 10		#设置步长,自定增量
(integer) 11
127.0.0.1:6379> decrby views 10		#设置步长,自定减量
(integer) 1
  1. 字符串范围
127.0.0.1:6379> set key1 "hello,qwertyu"
OK
127.0.0.1:6379> get key1
"hello,qwertyu"
127.0.0.1:6379> getrange key1 2 5   #截取字符串 [2,5]
"llo,"
127.0.0.1:6379> getrange key1 0 -1	#获取所有的字符串,和get key一样
"hello,qwertyu"
127.0.0.1:6379> 
#替换字符串
127.0.0.1:6379> set key2 "abcdefg"
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> setrange key2 1 xx 		#替换指定位置开始的字符串
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"
  1. 设置过期时间
    setex(set with expire) #设置过期时间
    setnx(set if not expire) #不存在再设置 (在分布式锁中会使用)
127.0.0.1:6379> setex key3 30 hello		#设置key3的值为hello,30秒后过期
OK
127.0.0.1:6379> ttl key3
(integer) 24
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey heoo	#如过mykey不存在,创建mykey
(integer) 1
127.0.0.1:6379> keys *
1) "key2"
2) "key1"
3) "mykey"
127.0.0.1:6379> ttl key3
(integer) -2
127.0.0.1:6379> setnx mykey mogodb	#如果mykey不存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"heoo"
  1. 多个值赋值/获取(mset/mget)
    mset 同时设置多个值
    mget 同时获取多个值
    msetnx 是原子性操作,要不成功,要不失败
127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3
OK
127.0.0.1:6379> keys *
1) "k3"
2) "k1"
3) "k2"
127.0.0.1:6379> mget k1 k2 k3
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 t k4 v4
(integer) 0
127.0.0.1:6379> get k4
(nil)
  1. 对象
    set user:1 {name:zhangsan,age:3} #设置一个user:1对象 值为json字符串来保存对象
#这里的key是一个巧妙设计: user:{id}:{filed},  在redis是可以的
127.0.0.1:6379> mset user:1:name zhangsan user:1:age 3
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "3"
  1. getset
getset  #先get再set
127.0.0.1:6379> getset db redis		#如果不存在值,则返回nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mogodb	#如果存在值,获取原来的值,并且设置新的值
"redis"
127.0.0.1:6379> get db
"mogodb"

应用场景

  • 计数器,文章的阅读量,视频播放量等
  • 统计多单位数量
  • 对象缓存存储

List

在redis中,list可以当成栈,队列,阻塞队列
所以的list命令都是以l开头

命令

  1. lpush / rpush(左插入/右插入),lrang
127.0.0.1:6379> lpush list1 one		#将一个值或者多个值,插入到列表头部(左)
(integer) 1
127.0.0.1:6379> lpush list1 two
(integer) 2
127.0.0.1:6379> lpush list1 three
(integer) 3 
127.0.0.1:6379> lrange list1 0 -1	#获取list的所有值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> lrange list1 0 1	#通过区间获取具体的值
1) "three"
2) "two"
127.0.0.1:6379> rpush list1 right	#将一个值或者多个值,插入到列表尾部(右)
(integer) 4
127.0.0.1:6379> lrange list1 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
  1. lpop / rpop(左移除/右移除)
#lpop  rpop  移除
127.0.0.1:6379> lpop list1			#移除list1的第一个元素
"three"
127.0.0.1:6379> rpop list1			#移除list1的最后一个元素
"right"
127.0.0.1:6379> lrange list1 0 -1
1) "two"
2) "one"
  1. lindex (通过下标获取某list的值)
#lindex  
127.0.0.1:6379> lindex list1 1		#通过下标获得list中的某一个值
"one"
127.0.0.1:6379> lindex list1 0
"two"
  1. llen(返回列表的长度)
127.0.0.1:6379> lpush list1 one
(integer) 1
127.0.0.1:6379> lpush list1 two
(integer) 2
127.0.0.1:6379> llen list1			#返回列表的长度
(integer) 2
  1. lrem(移除指定的值)
127.0.0.1:6379> lpush list1 one
(integer) 1
127.0.0.1:6379> lpush list1 two
(integer) 2
127.0.0.1:6379> llen list1
(integer) 2
127.0.0.1:6379> lpush list1 two
(integer) 3
127.0.0.1:6379> lrem list1 1 one		#移除list1中指定个数的value,精确匹配
(integer) 1
127.0.0.1:6379> lrem list1 2 two
(integer) 2
127.0.0.1:6379> lrange list1 0 -1
(empty list or set)
  1. ltrim (针对某list,通过下标截取指定长度)
    对一个列表进行修剪(trim)
127.0.0.1:6379> lpush mylist "hello"
(integer) 1
127.0.0.1:6379> lpush mylist "hello1"
(integer) 2
127.0.0.1:6379> lpush mylist "hello2"
(integer) 3
127.0.0.1:6379> lpush mylist "hello3"
(integer) 4
127.0.0.1:6379> lrange mylist 0 -1
1) "hello3"
2) "hello2"
3) "hello1"
4) "hello"
127.0.0.1:6379> ltrim mylist 1 2		#通过下标截取指定长度,这个list已经被改变,只剩截取部分
OK
127.0.0.1:6379> lrange mylist 0 -1
1) "hello2"
2) "hello1"
  1. rpoplpush(移除列表最后一个元素,并添加入新的list)
127.0.0.1:6379> rpush mylist "hello"
(integer) 1
127.0.0.1:6379> rpush mylist "hello1"
(integer) 2
127.0.0.1:6379> rpush mylist "hello2"
(integer) 3
127.0.0.1:6379> rpush mylist "hello3"
(integer) 4
127.0.0.1:6379> rpoplpush mylist my_otherList  #从mylist中剔除并加入到my_otherList
"hello3"
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "hello1"
3) "hello2"
127.0.0.1:6379> lrange my_otherList 0 -1
1) "hello3"
  1. lset(将列表中指定下标的值替换为另外一个值,更新操作)
127.0.0.1:6379> exists list   			#判断list是否存在
(integer) 0
127.0.0.1:6379> lset list 0 item		#如不存在,执行lset会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value111111
(integer) 1
127.0.0.1:6379> lrange list 0 -1
1) "value111111"
127.0.0.1:6379> lset list 0 item
OK
127.0.0.1:6379> lrange list 0 -1
1) "item"

小结:

  • 它实际是一个链表,before Node after,left,right 都可以插入值
  • 如果key不存在,创建新的链表
  • 如果key存在,新增内容
  • 如果移除了所有的值,空链表,不存在
  • 在两边插入或改到值,效率会高

应用场景

  • 消息队列:利用List的PUSH操作,将任务存在List中,然后工作线程再用POP操作将任务取出进行执行。Redis还提供了操作List中某一段的api,你可以直接查询,删除List中某一段的元素。
  • 消息排队,消息队列(Lpush、Rpop)、栈(Lpush、Lpop)
  • 使用list可以构建队列系统,使用sorted set甚至可以构建有优先级的队列系统。

Set

set中的值是不能重复的

命令

  1. sadd(set集合中添加元素)
127.0.0.1:6379> sadd myset "hello"			#set集合中添加元素
(integer) 1
127.0.0.1:6379> sadd myset "zxb"
(integer) 1
127.0.0.1:6379> sadd myset "zb"
(integer) 1
  1. smembers(查看指定set的所有值)
127.0.0.1:6379> smembers myset				#查看指定set的所有值
1) "hello"
2) "zb"
3) "zxb"
  1. sismember(判断某一个值是否在set集合中)
    返回1:表示存在
    返回0:表示不存在
127.0.0.1:6379> sismember myset zxb			#判断某一个值是否在set集合中
(integer) 1
127.0.0.1:6379> sismember myset z
(integer) 0
  1. scard(获得set集合中的内容元素个数)
127.0.0.1:6379> scard myset				#获得set集合中的内容元素个数
(integer) 3
  1. srem(移除set集合中指定元素)
127.0.0.1:6379> srem myset zxb			#移除set集合中指定元素
(integer) 1
127.0.0.1:6379> smembers myset
1) "hello"
2) "zb"
  1. srandmember(随机抽取几个元素)
    set 无序不重复集合,抽随机!
    srandmember myset 2 随机抽取2个
127.0.0.1:6379> srandmember myset
"hello"
127.0.0.1:6379> srandmember myset		#随机抽选出一个元素
"hello"
127.0.0.1:6379> srandmember myset
"hello"
127.0.0.1:6379> srandmember myset
"hello"
127.0.0.1:6379> srandmember myset
"zb"
127.0.0.1:6379> srandmember myset
"zb"
  1. spop(随机删除一个)/srem(删除指定key)
127.0.0.1:6379> smembers myset
1) "hello"
2) "gsz"
3) "zb"
4) "ghj"
5) "zwj"
6) "sw"
127.0.0.1:6379> srandmember myset 		#随机选择一个
"ghj"
127.0.0.1:6379> spop myset 				#随机删除一个
"zb"
127.0.0.1:6379> srem myset 	ghj			#删除指定key为ghj
(integer) 1
127.0.0.1:6379> smembers myset			#查看删除后集合
1) "gsz"
2) "zwj"
3) "sw"
4) "hello"
  1. smove(将一个指定的值,移动到另一个set集合中)
127.0.0.1:6379> smembers myset		#查看set集合中元素
1) "gsz"
2) "zwj"
3) "sw"
4) "hello"
127.0.0.1:6379> smove myset myset2 zwj		#将myset集合中的zwj元素移动到myset2集合中
(integer) 1
127.0.0.1:6379> smembers myset2				
1) "zwj"
  1. 数字集合类
    微博,b站,共同关注(并集)
    数字集合类:
    • 差集(sdiff)
    • 交集(sinter)
    • 并集(sunion)
127.0.0.1:6379> smembers myset		#myset
1) "ghj"
2) "gsz"
3) "zwj"
4) "sw"
5) "hello"
127.0.0.1:6379> smembers myset2		#myset2
1) "sw"
2) "zwj"
3) "sr"
127.0.0.1:6379> sdiff myset myset2		#差集
1) "ghj"
2) "hello"
3) "gsz"
127.0.0.1:6379> sinter myset myset2		#交集		共同好友可这样实现
1) "sw"
127.0.0.1:6379> sunion myset myset2		#并集
1) "gsz"
2) "ghj"
3) "sr"
4) "zwj"
5) "sw"
6) "hello"

应用场景

微博,A用户将所有关注的人放在一个set集合中,将它的粉丝也放在一个集合中

共同罐关注,共同爱好,,二度好友,推荐好友(六度分割理论)


Hash

Map集合 key-value 当value是map时就是hash 本质和string类型区别不大

key-map

命令

  1. hset / hget
127.0.0.1:6379[1]> hset myhash field1 zxb					#set一个具体的key-value
(integer) 1
127.0.0.1:6379[1]> hget myhash field1
"zxb"
  1. hmset / hmget(多值的set/get)
127.0.0.1:6379[1]> hmset myhash field1 hello field2 world		#同时set多个具体的key-value
OK
127.0.0.1:6379[1]> hmget myhash field1 field2					#同时get多个具体的key-value
1) "hello"
2) "world"
  1. hgetall(获取全部字段)
127.0.0.1:6379[1]> hgetall myhash			#获取全部的字段
1) "field1"
2) "hello"
3) "field2"
4) "world"
  1. hdel(删除hash指定的key字段)
127.0.0.1:6379[1]> hset myhash field1 hello
(integer) 1
127.0.0.1:6379[1]> hset myhash field2 world
(integer) 1
127.0.0.1:6379[1]> hdel myhash field1		#删除hash指定的key字段,对应的value值也删除了
(integer) 1
127.0.0.1:6379[1]> hgetall myhash
1) "field2"
2) "world"
  1. hlen(获取hash表的字段数量)
127.0.0.1:6379[1]> hmset myhash field1 hello field3 hh
OK
127.0.0.1:6379[1]> hlen myhash			#获取hash表的字段数量
(integer) 3
127.0.0.1:6379[1]>
  1. hexists(判断hash中指定字段是否存在)
127.0.0.1:6379[1]> hexists myhash field1	#判断hash中指定字段是否存在
(integer) 1
  1. hkeys / hvals (只获得key / value)
#只获得所有field
127.0.0.1:6379[1]> hkeys myhash
1) "field2"
2) "field1"
3) "field3"
#只获得左右field对应的value
127.0.0.1:6379[1]> hvals myhash
1) "world"
2) "hello"
3) "hh"
  1. hincry /hincrbyfloat
    hincry key field increment :为哈希表 key 中的指定字段的整数值加上增量 increment
    hincrbyfloat key field increment:为哈希表 key 中的指定字段的浮点数值加上增量 increment
127.0.0.1:6379[1]> hset myhash field4 5		
(integer) 1
127.0.0.1:6379[1]> hincrby myhash field4 1		#指定增量5
(integer) 6
127.0.0.1:6379[1]> hincrby myhash field4 -1
(integer) 5
127.0.0.1:6379[1]> hsetnx myhash field4 hello	#如果存在则不能设置
(integer) 0
127.0.0.1:6379[1]> hget myhash field4
"5"
127.0.0.1:6379> hset myhash field5 4.3
(integer) 1
127.0.0.1:6379> hincrbyfloat myhash field5 0.3	#指定增量0.3
"4.6"
127.0.0.1:6379[1]> hsetnx myhash field6 hello		#如果不存在可以设置
(integer) 1

应用场景

hash用于存储经常变更的数据,比如:user name age,尤其是用户相关的信息等
hash更适合于对象的存储 ; String更加适合字符串存储


Zset

在set的基础上,增加了一个值
set k1 v1
zset k1 score1 v1

命令

  1. zadd / zrange
127.0.0.1:6379[2]> zadd myset 1 one					#添加一个值
(integer) 1
127.0.0.1:6379[2]> zadd myset 2 two
(integer) 1
127.0.0.1:6379[2]> zadd myset 3 three 4 four 		#添加多个值
(integer) 2
127.0.0.1:6379[2]> zrange myset 0 -1
1) "one"
2) "two"
3) "three"
4) "four"
  1. 排序
#排序如何实现
127.0.0.1:6379[2]> zadd salary 2500 xiaohong	#添加三个用户
(integer) 1
127.0.0.1:6379[2]> zadd salary 5000 zxb
(integer) 1
127.0.0.1:6379[2]> zadd salary 500 zx
(integer) 1
#zrangebyscore key min max
127.0.0.1:6379[2]> zrangebyscore salary -inf +inf	#显示全部用户,从小到大排序
1) "zx"
2) "xiaohong"
3) "zxb"
127.0.0.1:6379[2]> zrevrange salary 0 -1		#显示全部用户,从大到小排序
1) "zxb"
2) "xiaohong"
127.0.0.1:6379[2]> ZRANGEBYSCORE salary 500 2500
1) "zx"
2) "xiaohong"
127.0.0.1:6379[2]> ZRANGEBYSCORE salary 0 -1
(empty list or set)
127.0.0.1:6379[2]> ZRANGEBYSCORE salary 500 2500
1) "zx"
2) "xiaohong"
127.0.0.1:6379[2]> ZRANGEBYSCORE salary 500 2500 withscores		#显示全部的用户并且附带成绩
1) "zx"
2) "500"
3) "xiaohong"
4) "2500"
  1. zrem(移除) / zcard(获取有序集合中个数)
127.0.0.1:6379[2]> zrem salary zx			#移除有序集合中的指定zx元素
(integer) 1
127.0.0.1:6379[2]> zrange salary 0 -1		#查看当前元素
1) "xiaohong"
2) "zxb"
127.0.0.1:6379[2]> zcard salary				#获取有序集合中的个数
(integer) 2
  1. zcount(获取指定区间的成员数量)
127.0.0.1:6379> zadd myset 1 hello
(integer) 1
127.0.0.1:6379> zadd myset 2 world 3 xb
(integer) 2
127.0.0.1:6379> zcount myset 1 3		#获取指定区间的成员数量
(integer) 3

应用场景

set排序 存储班级成绩表,工资表排序
排行榜应用实现 取top N


三种特殊数据类型

geospatial(地理位置)

日常生活中的实例有朋友定位,附近的人,打车距离计算
redis 3.2版本已经推出,该功能可以推算地理位置的信息,两地之间的距离,方圆几里的人
6个命令
在这里插入图片描述

  1. geoadd (添加地理位置)
    有效的经度从-180度到180度。
    有效的纬度从-85.05112878度到85.05112878度。
    当坐标位置超出上述指定范围时,该命令将会返回一个错误。
    规则:两级无法导入,一般会下载城市数据,直接通过java程序一次性导入
    查询城市经纬度
127.0.0.1:6379> geoadd china:city 116.40 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 32.23 shanghai 106.50 29.53 chongqin
(integer) 2
127.0.0.1:6379> geoadd china:city 114
(error) ERR wrong number of arguments for 'geoadd' command
127.0.0.1:6379> geoadd china:city 114.05 22.52 shengzheng
(integer) 1
127.0.0.1:6379> geoadd china:city 120.16 30.24 hangzhou 108.96 34.26 xian
(integer) 2
  1. geopos (获取指定城市的地理位置)
127.0.0.1:6379> geopos china:city beijing
1) 1) "116.39999896287918091"
   2) "39.90000009167092543"
  1. geodist (返回两个给定位置之间的距离)
    默认单位是米
    m 表示单位为米。
    km 表示单位为千米。
    mi 表示单位为英里。
    ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai
"966814.3446"
127.0.0.1:6379> geodist china:city beijing shanghai km
"966.8143"
127.0.0.1:6379> geodist china:city beijing shanghai mi
"600.7521"

geodist 命令在计算距离时会假设地球为完美的球形, 在极限情况下, 这一假设最大会造成 0.5% 的误差。

  1. georadius
    以给定的经纬度为中心,返回键包含的位置元素当中,与中心的距离不超过给定最大距离的所有位置元素
    场景:附近的人
    所有的数据应该都录入到china:city
127.0.0.1:6379> GEORADIUS china:city 110 30 1000 km		#以110 30的经纬度为中心,寻找方圆1000km内的城市
1) "chongqin"
2) "xian"
3) "shengzheng"
4) "hangzhou"
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km
1) "chongqin"
2) "xian"

其余参数命令:

127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withdist 		#显示到中间距离的位置
1) 1) "chongqin"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withcoord		#显示他人的定位信息
1) 1) "chongqin"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withcoord asc	#将寻找结果按距离远近升序排列,默认查询排列方式
1) 1) "chongqin"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
2) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
127.0.0.1:6379> GEORADIUS china:city 110 30 500 km withcoord desc	#将寻找结果按距离远近降序排列
1) 1) "xian"
   2) 1) "108.96000176668167114"
      2) "34.25999964418929977"
2) 1) "chongqin"
   2) 1) "106.49999767541885376"
      2) "29.52999957900659211"
127.0.0.1:6379> GEORADIUS china:city 110 30 1000 km count 1			#筛选指定结果
1) "chongqin"
  1. georadiusbymember
    找出位于指定范围内的元素,中心点是由给定的位置元素决定
    这个命令和 GEORADIUS 命令一样, 都可以找出位于指定范围内的元素, 但是 GEORADIUSBYMEMBER 的中心点是由给定的位置元素决定的,
    GEORADIUS 那样, 使用输入的经度和纬度来决定中心点
127.0.0.1:6379> georadiusbymember china:city shanghai 1000 km 
1) "shanghai"
2) "beijing"
3) "hangzhou"
  1. geohash
    返回一个或多个位置元素的Geohash字符串
    将二维的经纬度转换为一维的字符串,如果两个字符串越接近,那么则距离越近
127.0.0.1:6379> geohash china:city beijing shanghai
1) "wx4fbxxfke0"
2) "wtwrk57c250"

Hyperloglog

  • 什么是基数
    一个可重复集合内不重复元素的个数就是基数。
    比如:A{1,2,3,4,5,6} B{1,2,3,4,5}
    基数(不重复的元素)=5,可以接受误差

优点:占用的内存是固定的,2^64不同的元素的技术,只需要12kb内存
场景:网页的UV(一个人访问一个网站多次,但是还是算一个人)
传统方式:使用set保存用户id,统计set中的中元素数量作为标准判断,如保存大量的 用户id,会比较麻烦。目的是计数而不是保存id

#Hyperloglog 基数统计算法
#测试
127.0.0.1:6379> pFadd mykey a b c d e f g h i j		#创建第一组元素mykey
(integer) 1
127.0.0.1:6379> PFCOUNT mykey					#统计mykey基数数量
(integer) 10
127.0.0.1:6379> pFadd mykey2 k m n z x c v b		#创建第一组元素mykey2
(integer) 1
127.0.0.1:6379> PFCOUNT mykey2
(integer) 8
127.0.0.1:6379> PFMERGE mykey3 mykey mykey2			#合并mykey mykey2=》mykey3 并集
OK
127.0.0.1:6379> PFCOUNT mykey3					#查看并集数量
(integer) 16

Bitmap

位存储
场景:

  1. 统计疫情感染人数,一共有10万人,可用10万个0表示,感染者可修改为1;
  2. 统计用户信息,活跃与不活跃;
  3. 统计登录,登录与不登录

setbit key offset value:value只能是0或者1

#两个状态的,都可以使用Bitmaps(位图,数据结构!都是操作二进制位来进行记录,就只有0和1两个状态)
#测试,一周7天的打卡情况  统计打卡天数
127.0.0.1:6379> setbit sign 0 1		#周一 打卡
(integer) 0
127.0.0.1:6379> setbit sign 1 0 	#周二 未打卡
(integer) 0
127.0.0.1:6379> setbit sign 2 1 	#周三 打卡
(integer) 0
127.0.0.1:6379> setbit sign 3 1 	#周四 打卡
(integer) 0
127.0.0.1:6379> setbit sign 4 0		#周五 未打卡 
(integer) 0
127.0.0.1:6379> setbit sign 5 0 	#周六 未打卡
(integer) 0
127.0.0.1:6379> setbit sign 6 0 	#周日 打卡
(integer) 0
#查看某一天是否打卡
127.0.0.1:6379> getbit sign 3		#查看周四打卡情况
(integer) 1						   #返回1,表示打卡
127.0.0.1:6379> getbit sign 6
(integer) 0
127.0.0.1:6379> getbit sign 5
(integer) 0
127.0.0.1:6379> getbit sign 4
(integer) 1
#统计打卡天数
127.0.0.1:6379> BITCOUNT sign		#统计打卡天数
(integer) 4						   #4天


本文是redis学习中的简单记录,在工作中如果有其他需要,可访问Redis官方文档中查看。
redis命令手册(中文)

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
大数据分析及处理方法全文共3页,当前为第1页。大数据分析及处理方法全文共3页,当前为第1页。大数据分析及处理方法 大数据分析及处理方法全文共3页,当前为第1页。 大数据分析及处理方法全文共3页,当前为第1页。 大数据的处理 周涛博士说:大数据处理数据时代理念的三大转变:要全体不要抽样,要效率不要肯定精确,要相关不要因果。 具体的大数据处理方法其实有许多,但是依据长时间的实践,笔者总结了一个基本的大数据处理流程,并且这个流程应当能够对大家理顺大数据的处理有所关心。整个处理流程可以概括为四步,分别是采集、导入和预处理、统计和分析,以及挖掘。 采集 大数据的采集是指利用多个数据库来接收发自客户端(Web、App或者传感器形式等)的数据,并且用户可以通过这些数据库来进行简洁的查询和处理工作。比方,电商会使用传统的关系型数据库MySQL和Oracle等来存储每一笔事务数据,除此之外,Redis和MongoDB这样的NoSQL数据库也常用于数据的采集 在大数据的采集过程,其主要特点和挑战是并发数高,因为同时有可能会有成千上万的用户来进行访问和操作,比方火车票售票网站和淘宝,它们并发的访问量在峰值时到达上百万,所以需要在采集端部署大量数据库才能支撑。并且如何在这些数据库之间进行负载均衡和分片确实是需要深入的思索和设计。 导入/预处理 虽然采集端本身会有许多数据库,但是假如要对这些海量数据进行有效的分析,还是应当将这些来自前端的数据导入到一个集的大型分布式数据库,或者分布式存储集群,并且可以在导入基础上做一些简洁的清洗和预处理工作。也有一些用户会在导入时使用来自Twitter的Storm来对数据进行流式计算,来满足部分业务的实时计算需求。 大数据分析及处理方法全文共3页,当前为第2页。大数据分析及处理方法全文共3页,当前为第2页。 导入与预处理过程的特点和挑战主要是导入的数据量大,每秒钟的导入量常常会到达百兆,甚至千兆级别。 统计/分析 统计与分析主要利用分布式数据库,或者分布式计算集群来对存储于其内的海量数据进行一般的分析和分类汇总等,以满足大多数常见的分析需求,在这方面,一些实时性需求会用到EMC 的GreenPlum、Oracle的Exadata,以及基于MySQL的列式存储Infobright等,而一些批处理,或者基于半结构化数据的需求可以使用Hadoop。 统计与分析这部分的主要特点和挑战是分析涉及的数据量大,其对系统资源,特殊是I/O会有极大的占用。 挖掘 与前面统计和分析过程不同的是,数据挖掘一般没有什么预先设定好的主题,主要是在现有数据上面进行基于各种算法的计算,从而起到预报(Predict)的效果,从而实现一些高级别数据分析的需求。比较典型算法有用于聚类的K-Means、用于统计学习的SVM和用于分类的Naive Bayes,主要使用的工具有Hadoop的Mahout等。 该过程的特点和挑战主要是用于挖掘的算法很冗杂,并且计算涉及的`数据量和计算量都很大,还有,常用数据挖掘算法都以单线程为主。 大数据分析的五个基本方面 1. Analytic Visualizations(可视化分析) 不管是对数据分析专家还是一般用户,数据可视化是数据分析工具最基本的要求。可视化可以直观的展示数据,让数据自己说话,让观众听到结果。 2. Data Mining Algorithms(数据挖掘算法) 可视化是给人看的,数据挖掘就是给机器看的。集群、分割、孤立点分析还有其他的算法让我们深入数据内部,挖掘价值。这些算法不仅要处理大数据的量,也要处理大数据的速度。 大数据分析及处理方法全文共3页,当前为第3页。大数据分析及处理方法全文共3页,当前为第3页。 3. Predictive Analytic Capabilities(预报性分析能力) 数据挖掘可以让分析员更好的理解数据,而预报性分析可以让分析员依据可视化分析和数据挖掘的结果做出一些预报性的推断。 4. Semantic Engines(语义引擎) 我们知道由于非结构化数据的多样性带来了数据分析的新的挑战,我们需要一系列的工具去解析,提取,分析数据。语义引擎需要被设计成能够从"文档"智能提取信息。 5. Data Quality and Master Data Management(数据质量和数据管理) 数据质量和数据管理是一些管理方面的最正确实践。通过标准化的流程和工具对数据进行处理可以保证一个预先定义好的高质量的分析结果。 假如大数据真的是下一个重要的技术革新的话,我们最好把精力关注在大数据能给我们带来的好处,而不仅仅是挑战。 大数据分析及处理方法全文共3页,当前为第2页。 大数据分析及处理方法全文共3页,当前为第2页。 大数据分析及处理方法全文共3页,当前为第3页。 大数据分析

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一只努力的笨笨熊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值