redis的使用(一)-安装与配置

安装

windows下安装

点击下载:下载地址

根据系统选择32或64位的压缩包,解压后放到D:\developer目录下,文件夹改名为redis

启动服务端:打开cmd,切换到redis路径下,执行
redis-server.exe redis.windows.conf
显示如图界面表示启动成功
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EjwUwbHP-1576739884613)(.\img\001.png)]
启动客户端:在redis路径下执行(此时服务端应保证启动)

redis-cli.exe -h 127.0.0.1 -p 6379 //启动
set key test  //设置键值对
get key   //获取键值对

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eQAdaJ3T-1576739884614)(.\img\002.png)]

linux下安装

选择最新稳定版本点击下载:下载地址

复制到服务器上进行解压

tar xzf redis-5.0.7
cd redis-5.0.7/
make //会在src下生成redis-server和redis-cli
cd src
./redis-server //启动服务端
./redis-cli //启动客户端,测试方式与win相同

redis配置

CONFIG GET * //获取所有配置信息
CONFIG GET ... //获取某一项配置信息
CONFIG SET xxx xxx //修改某一项配置信息
配置项详情:
128.127.0.0.1:6379> CONFIG GET *
  1) "dbfilename"
  2) "dump.rdb"
  3) "requirepass"
  4) ""
  5) "masterauth"
  6) ""
  7) "cluster-announce-ip"
  8) ""
  9) "unixsocket"
 10) ""
 11) "logfile"
 12) ""
 13) "pidfile"
 14) ""
 15) "slave-announce-ip"
 16) ""
 17) "replica-announce-ip"
 18) ""
 19) "maxmemory"
 20) "0"
 21) "proto-max-bulk-len"
 22) "536870912"
 23) "client-query-buffer-limit"
 24) "1073741824"
 25) "maxmemory-samples"
 26) "5"
 27) "lfu-log-factor"
 28) "10"
 29) "lfu-decay-time"
 30) "1"
 31) "timeout"
 32) "0"
 33) "active-defrag-threshold-lower"
 34) "10"
 35) "active-defrag-threshold-upper"
 36) "100"
 37) "active-defrag-ignore-bytes"
 38) "104857600"
 39) "active-defrag-cycle-min"
 40) "5"
 41) "active-defrag-cycle-max"
 42) "75"
 43) "active-defrag-max-scan-fields"
 44) "1000"
 45) "auto-aof-rewrite-percentage"
 46) "100"
 47) "auto-aof-rewrite-min-size"
 48) "67108864"
 49) "hash-max-ziplist-entries"
 50) "512"
 51) "hash-max-ziplist-value"
 52) "64"
 53) "stream-node-max-bytes"
 54) "4096"
 55) "stream-node-max-entries"
 56) "100"
 57) "list-max-ziplist-size"
 58) "-2"
 59) "list-compress-depth"
 60) "0"
 61) "set-max-intset-entries"
 62) "512"
 63) "zset-max-ziplist-entries"
 64) "128"
 65) "zset-max-ziplist-value"
 66) "64"
 67) "hll-sparse-max-bytes"
 68) "3000"
 69) "lua-time-limit"
 70) "5000"
 71) "slowlog-log-slower-than"
 72) "10000"
 73) "latency-monitor-threshold"
 74) "0"
 75) "slowlog-max-len"
 76) "128"
 77) "port"
 78) "6379"
 79) "cluster-announce-port"
 80) "0"
 81) "cluster-announce-bus-port"
 82) "0"
 83) "tcp-backlog"
 84) "511"
 85) "databases"
 86) "16"
 87) "repl-ping-slave-period"
 88) "10"
 89) "repl-ping-replica-period"
 90) "10"
 91) "repl-timeout"
 92) "60"
 93) "repl-backlog-size"
 94) "1048576"
 95) "repl-backlog-ttl"
 96) "3600"
 97) "maxclients"
 98) "10000"
 99) "watchdog-period"
100) "0"
101) "slave-priority"
102) "100"
103) "replica-priority"
104) "100"
105) "slave-announce-port"
106) "0"
107) "replica-announce-port"
108) "0"
109) "min-slaves-to-write"
110) "0"
111) "min-replicas-to-write"
112) "0"
113) "min-slaves-max-lag"
114) "10"
115) "min-replicas-max-lag"
116) "10"
117) "hz"
118) "10"
119) "cluster-node-timeout"
120) "15000"
121) "cluster-migration-barrier"
122) "1"
123) "cluster-slave-validity-factor"
124) "10"
125) "cluster-replica-validity-factor"
126) "10"
127) "repl-diskless-sync-delay"
128) "5"
129) "tcp-keepalive"
130) "300"
131) "cluster-require-full-coverage"
132) "yes"
133) "cluster-slave-no-failover"
134) "no"
135) "cluster-replica-no-failover"
136) "no"
137) "no-appendfsync-on-rewrite"
138) "no"
139) "slave-serve-stale-data"
140) "yes"
141) "replica-serve-stale-data"
142) "yes"
143) "slave-read-only"
144) "yes"
145) "replica-read-only"
146) "yes"
147) "slave-ignore-maxmemory"
148) "yes"
149) "replica-ignore-maxmemory"
150) "yes"
151) "stop-writes-on-bgsave-error"
152) "yes"
153) "daemonize"
154) "no"
155) "rdbcompression"
156) "yes"
157) "rdbchecksum"
158) "yes"
159) "activerehashing"
160) "yes"
161) "activedefrag"
162) "no"
163) "protected-mode"
164) "yes"
165) "repl-disable-tcp-nodelay"
166) "no"
167) "repl-diskless-sync"
168) "no"
169) "aof-rewrite-incremental-fsync"
170) "yes"
171) "rdb-save-incremental-fsync"
172) "yes"
173) "aof-load-truncated"
174) "yes"
175) "aof-use-rdb-preamble"
176) "yes"
177) "lazyfree-lazy-eviction"
178) "no"
179) "lazyfree-lazy-expire"
180) "no"
181) "lazyfree-lazy-server-del"
182) "no"
183) "slave-lazy-flush"
184) "no"
185) "replica-lazy-flush"
186) "no"
187) "dynamic-hz"
188) "yes"
189) "maxmemory-policy"
190) "noeviction"
191) "loglevel"
192) "notice"
193) "supervised"
194) "no"
195) "appendfsync"
196) "everysec"
197) "syslog-facility"
198) "local0"
199) "appendonly"
200) "no"
201) "dir"
202) "/opt/redis-5.0.7/src"
203) "save"
204) "3600 1 300 100 60 10000"
205) "client-output-buffer-limit"
206) "normal 0 0 0 slave 268435456 67108864 60 pubsub 33554432 8388608 60"
207) "unixsocketperm"
208) "0"
209) "slaveof"
210) ""
211) "notify-keyspace-events"
212) ""
213) "bind"
214) ""

常用配置

配置说明
port 6379Redis 监听端口,默认端口为 6379
bind 127.0.0.1绑定的主机地址
timeout 300当客户端闲置多长时间后关闭连接,如果指定为 0,表示关闭该功能
loglevel notice日志级别,Redis 总共支持四个级别:debug、verbose、notice、warning,默认为 notice
databases 16设置数据库的数量,默认数据库为0,可以使用SELECT 命令在连接上指定数据库id
save seconds changes指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合,save 900 1表示 900 秒(15 分钟)内有 1 个更改
rdbcompression yes指定存储至本地数据库时是否压缩数据,默认为 yes,Redis 采用 LZF 压缩,如果为了节省 CPU 时间,可以关闭该选项,但会导致数据库文件变的巨大
dbfilename dump.rdb指定本地数据库文件名,默认值为 dump.rdb
dir ./指定本地数据库存放目录

数据类型

String字符串

string 类型是二进制安全,可以包含任何数据(jpg图片或者序列化的对象)。string 类型是 Redis 最基本的数据类型,string 类型的值最大能存储 512MB。

127.0.0.1:6379> set test1 heeee
OK
127.0.0.1:6379> get test1
"heeee"

Hash(哈希)

hash 是一个键值(key=>value)对集合。 是一个 string 类型的 field 和 value 的映射表,hash 特别适合用于存储对象。

127.0.0.1:6379> HMSET test2 aa "nihao" bb "www" cc "eeeee"
OK
127.0.0.1:6379> HGET test2 cc
"eeeee"
127.0.0.1:6379> HGET test2 bb
"www"
127.0.0.1:6379> HMGET test2 aa
1) "nihao"

List(列表)

列表是简单的字符串列表,通过lpush和lrange插入和获取

[root@log src]# ./redis-cli 
127.0.0.1:6379> LPUSH test3 aaa
(integer) 1
127.0.0.1:6379> LPUSH test3 bbbb
(integer) 2
127.0.0.1:6379> LPUSH test3 vvv
(integer) 3
127.0.0.1:6379> LPUSH test3 1212
(integer) 4
127.0.0.1:6379> LPUSH test3 14jak
(integer) 5
127.0.0.1:6379> LRANGE test3 0 5
1) "14jak"
2) "1212"
3) "vvv"
4) "bbbb"
5) "aaa"
127.0.0.1:6379> LRANGE test3 2 5
1) "vvv"
2) "bbbb"
3) "aaa"

Set(集合)

Redis 的 Set 是 string 类型的无序集合,sadd元素到 key 对应的 set 集合中,成功返回 1,如果元素已经在集合中返回 0

127.0.0.1:6379> SADD test4 111
(integer) 1
127.0.0.1:6379> SADD test4 222
(integer) 1
127.0.0.1:6379> SADD test4 222
(integer) 0
127.0.0.1:6379> SADD test4 aaaad
(integer) 1
127.0.0.1:6379> SMEMBERS test4
1) "aaaad"
2) "222"
3) "111"

zset(sorted set:有序集合)

Redis zset 和 set 一样也是string类型元素的集合,且不允许重复的成员。
不同的是每个元素都会关联一个double类型的分数。redis正是通过分数来为集合中的成员进行从小到大的排序。zset的成员是唯一的,但分数(score)却可以重复。

127.0.0.1:6379> ZADD test5 0 aaa
(integer) 1
127.0.0.1:6379> ZADD test5 1 aaa
(integer) 0
127.0.0.1:6379> ZADD test5 0 bbb
(integer) 1
127.0.0.1:6379> ZADD test5 0 333
(integer) 1
127.0.0.1:6379> ZRANGEBYSCORE test5 0 10
1) "333"
2) "bbb"
3) "aaa"
类型介绍特性使用场景
String(字符串)二进制安全可以包含任何数据,比如jpg图片或者序列化的对象,一个键最大能存储512M
Hash(哈希)键值对集合,即编程语言中的Map类型适合存储对象,并且可以像数据库中update一个属性一样只修改某一项属性值(Memcached中需要取出整个字符串反序列化成对象修改完再序列化存回去)存储、读取、修改用户属性
List(列表)链表(双向链表)增删快,提供了操作某一段元素的API1,最新消息排行等功能(比如朋友圈的时间线) 2,消息队列
Set(集合)哈希表实现,元素不重复1、添加、删除,查找的复杂度都是O(1) 2、为集合提供了求交集、并集、差集等操作1、共同好友 2、利用唯一性,统计访问网站的所有独立ip 3、好友推荐时,根据tag求交集,大于某个阈值就可以推荐
Sorted Set(有序集合)将Set中的元素增加一个权重参数score,元素按score有序排列数据插入集合时,已经进行天然排序1、排行榜 2、带权重的消息队列
出整个字符串反序列化成对象修改完再序列化存回去)存储、读取、修改用户属性
List(列表)链表(双向链表)增删快,提供了操作某一段元素的API1,最新消息排行等功能(比如朋友圈的时间线) 2,消息队列
Set(集合)哈希表实现,元素不重复1、添加、删除,查找的复杂度都是O(1) 2、为集合提供了求交集、并集、差集等操作1、共同好友 2、利用唯一性,统计访问网站的所有独立ip 3、好友推荐时,根据tag求交集,大于某个阈值就可以推荐
Sorted Set(有序集合)将Set中的元素增加一个权重参数score,元素按score有序排列数据插入集合时,已经进行天然排序1、排行榜 2、带权重的消息队列
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值