redis基本命令、配置参数 - 简单示例(sub/pub)

4 篇文章 0 订阅
3 篇文章 0 订阅

 

()

redis命令集功能分析

(http://my.oschina.net/jing521/blog/91290)

1、连接操作相关的命令

quit:关闭连接(connection)

auth:简单密码认证

2、对value操作的命令

exists(key):确认一个key是否存在

del(key):删除一个key

type(key):返回值的类型

keys(pattern):返回满足给定pattern的所有key

randomkey:随机返回key空间的一个key

rename(oldname, newname):将key由oldname重命名为newname,若newname存在则删除newname表示的key

dbsize:返回当前数据库中key的数目

expire:设定一个key的活动时间(s)

ttl:获得一个key的活动时间

select(index):按索引查询

move(key, dbindex):将当前数据库中的key转移到有dbindex索引的数据库

flushdb:删除当前选择数据库中的所有key

flushall:删除所有数据库中的所有key

3、对String操作的命令

set(key, value):给数据库中名称为key的string赋予值value

get(key):返回数据库中名称为key的string的value

getset(key, value):给名称为key的string赋予上一次的value

mget(key1, key2,…, key N):返回库中多个string(它们的名称为key1,key2…)的value

setnx(key, value):如果不存在名称为key的string,则向库中添加string,名称为key,值为value

setex(key, time, value):向库中添加string(名称为key,值为value)同时,设定过期时间time

mset(key1, value1, key2, value2,…key N, value N):同时给多个string赋值,名称为key i的string赋值value i

msetnx(key1, value1, key2, value2,…key N, value N):如果所有名称为key i的string都不存在,则向库中添加string,名称key i赋值为value i

incr(key):名称为key的string增1操作

incrby(key, integer):名称为key的string增加integer

decr(key):名称为key的string减1操作

decrby(key, integer):名称为key的string减少integer

append(key, value):名称为key的string的值附加value

substr(key, start, end):返回名称为key的string的value的子串

4、对List操作的命令

rpush(key, value):在名称为key的list尾添加一个值为value的元素

lpush(key, value):在名称为key的list头添加一个值为value的 元素

llen(key):返回名称为key的list的长度

lrange(key, start, end):返回名称为key的list中start至end之间的元素(下标从0开始,下同)

ltrim(key, start, end):截取名称为key的list,保留start至end之间的元素

lindex(key, index):返回名称为key的list中index位置的元素

lset(key, index, value):给名称为key的list中index位置的元素赋值为value

lrem(key, count, value):删除count个名称为key的list中值为value的元素。count为0,删除所有值为value的元素,count>0从 头至尾删除count个值为value的元素,count<0从尾到头删除|count|个值为value的元素。 lpop(key):返回并删除名称为key的list中的首元素 rpop(key):返回并删除名称为key的list中的尾元素 blpop(key1, key2,… key N, timeout):lpop命令的block版本。即当timeout为0时,若遇到名称为key i的list不存在或该list为空,则命令结束。如果timeout>0,则遇到上述情况时,等待timeout秒,如果问题没有解决,则对 keyi+1开始的list执行pop操作。

brpop(key1, key2,… key N, timeout):rpop的block版本。参考上一命令。

rpoplpush(srckey, dstkey):返回并删除名称为srckey的list的尾元素,并将该元素添加到名称为dstkey的list的头部

5、对Set操作的命令

sadd(key, member):向名称为key的set中添加元素member

srem(key, member) :删除名称为key的set中的元素member

spop(key) :随机返回并删除名称为key的set中一个元素

smove(srckey, dstkey, member) :将member元素从名称为srckey的集合移到名称为dstkey的集合

scard(key) :返回名称为key的set的基数

sismember(key, member) :测试member是否是名称为key的set的元素

sinter(key1, key2,…key N) :求交集

sinterstore(dstkey, key1, key2,…key N) :求交集并将交集保存到dstkey的集合

sunion(key1, key2,…key N) :求并集

sunionstore(dstkey, key1, key2,…key N) :求并集并将并集保存到dstkey的集合

sdiff(key1, key2,…key N) :求差集

sdiffstore(dstkey, key1, key2,…key N) :求差集并将差集保存到dstkey的集合

smembers(key) :返回名称为key的set的所有元素

srandmember(key) :随机返回名称为key的set的一个元素

6、对zset(sorted set)操作的命令

zadd(key, score, member):向名称为key的zset中添加元素member,score用于排序。如果该元素已经存在,则根据score更新该元素的顺序。

zrem(key, member) :删除名称为key的zset中的元素member

zincrby(key, increment, member) :如果在名称为key的zset中已经存在元素member,则该元素的score增加increment;否则向集合中添加该元素,其score的值为increment

zrank(key, member) :返回名称为key的zset(元素已按score从小到大排序)中member元素的rank(即index,从0开始),若没有member元素,返回“nil”

zrevrank(key, member) :返回名称为key的zset(元素已按score从大到小排序)中member元素的rank(即index,从0开始),若没有member元素,返回“nil”

zrange(key, start, end):返回名称为key的zset(元素已按score从小到大排序)中的index从start到end的所有元素

zrevrange(key, start, end):返回名称为key的zset(元素已按score从大到小排序)中的index从start到end的所有元素

zrangebyscore(key, min, max):返回名称为key的zset中score >= min且score <= max的所有元素 zcard(key):返回名称为key的zset的基数 zscore(key, element):返回名称为key的zset中元素element的score zremrangebyrank(key, min, max):删除名称为key的zset中rank >= min且rank <= max的所有元素 zremrangebyscore(key, min, max) :删除名称为key的zset中score >= min且score <= max的所有元素

zunionstore / zinterstore(dstkeyN, key1,…,keyN, WEIGHTS w1,…wN, AGGREGATE SUM|MIN|MAX):对N个zset求并集和交集,并将最后的集合保存在dstkeyN中。对于集合中每一个元素的score,在进行 AGGREGATE运算前,都要乘以对于的WEIGHT参数。如果没有提供WEIGHT,默认为1。默认的AGGREGATE是SUM,即结果集合中元素 的score是所有集合对应元素进行SUM运算的值,而MIN和MAX是指,结果集合中元素的score是所有集合对应元素中最小值和最大值。

7、对Hash操作的命令

hset(key, field, value):向名称为key的hash中添加元素field<—>value

hget(key, field):返回名称为key的hash中field对应的value

hmget(key, field1, …,field N):返回名称为key的hash中field i对应的value

hmset(key, field1, value1,…,field N, value N):向名称为key的hash中添加元素field i<—>value i

hincrby(key, field, integer):将名称为key的hash中field的value增加integer

hexists(key, field):名称为key的hash中是否存在键为field的域

hdel(key, field):删除名称为key的hash中键为field的域

hlen(key):返回名称为key的hash中元素个数

hkeys(key):返回名称为key的hash中所有键

hvals(key):返回名称为key的hash中所有键对应的value

hgetall(key):返回名称为key的hash中所有的键(field)及其对应的value

8、持久化

save:将数据同步保存到磁盘

bgsave:将数据异步保存到磁盘

lastsave:返回上次成功将数据保存到磁盘的Unix时戳

shundown:将数据同步保存到磁盘,然后关闭服务

9、远程服务控制

info:提供服务器的信息和统计

monitor:实时转储收到的请求

slaveof:改变复制策略设置

config:在运行时配置Redis服务

 

 

()

redis配置文件详解

(http://my.oschina.net/jing521/blog/91293)

#redis配置文件详解,针对2.6.3--2.6.7 by http://my.oschina.net/jing521

# Note on units: when memory size is needed, it is possible to specify 
# it in the usual form of 1k 5GB 4M and so forth:
 
#
 
# 1k => 1000 bytes
 
# 1kb => 1024 bytes
 
# 1m => 1000000 bytes
 
# 1mb => 1024*1024 bytes
 
# 1g => 1000000000 bytes
 
# 1gb => 1024*1024*1024 bytes
 
#
 
# units are case insensitive so 1GB 1Gb 1gB are all the same.
 

# Redis
默认是不作为守护进程来运行的。你可以把这个设置为"yes"让它作为守护进程来运行。 
#
注意,当作为守护进程的时候,Redis会把进程ID写到 /var/run/redis.pid 
daemonize yes
 

#
当以守护进程方式运行的时候,Redis会把进程ID默认写到 /var/run/redis.pid。你可以在这里修改路径。 
pidfile /var/run/redis.pid
 

#
接受连接的特定端口,默认是6379 
#
如果端口设置为0Redis就不会监听TCP套接字 
port 6379
 

#
如果端口设置为0Redis就不会监听TCP套接字 
port 6379
 

#
如果你想的话,你可以绑定单一接口;如果这里没单独设置,那么所有接口的连接都会被监听。 
#
 
# bind 127.0.0.1
 

#
指定用来监听连接的unxi套接字的路径。这个没有默认值,所以如果你不指定的话,Redis就不会通过unix套接字 
# unixsocket /tmp/redis.sock
 
# unixsocketperm 755
 

#
一个客户端空闲多少秒后关闭连接。(0代表禁用,永不关闭) 
timeout 0
 

#
设置服务器调试等级。 
# debug
(很多信息,对开发/测试有用) 
# verbose
(很多精简的有用信息,但是不像debug等级那么多) 
# notice
(适量的信息,基本上是你生产环境中需要的程度) 

# warning
(只有很重要/严重的信息会记录下来) 

loglevel notice
 

#
指明日志文件名。也可以使用"stdout"来强制让Redis把日志信息写到标准输出上。 
#
注意:如果Redis以守护进程方式运行,而你设置日志显示到标准输出的话,那么日志会发送到 /dev/null 
logfile stdout
 
#
要使用系统日志记录器很简单,只要设置 "syslog-enabled" "yes" 就可以了。 
#
然后根据需要设置其他一些syslog参数就可以了。 
# syslog-enabled no
 

#
指明syslog身份 
# syslog-ident redis
 

#
指明syslog的设备。必须是一个用户或者是 LOCAL0 ~ LOCAL7 之一。 
# syslog-facility local0
 

#
设置数据库个数。默认数据库是 DB 0,你可以通过SELECT <dbid> WHERE dbid0'databases' - 1)来为每个链接选择服务器 
databases 16
 

################################
快照 ######################## 
                                                             
 
#
把数据库存到磁盘上:                                                                                                      
#   save <seconds> <changes>                                  
 
#                                                             
 
#  
会在指定秒数和数据变化次数之后把数据库写到磁盘上。         
#                                                             
 
#  
下面的例子将会进行把数据写入磁盘的操作:                    
#   900
秒(15分钟)之后,且至少1次变更                         
#   300
秒(5分钟)之后,且至少10次变更                         
#   60
秒之后,且至少10000次变更                                
#                                                             
 
#  
注意:你要想不写磁盘的话就把所有 "save" 设置注释掉就行了。 

#save 900 1
 
save 300 30
 
#save 60 10000
 

#
后台存储错误停止写。 
stop-writes-on-bgsave-error yes
 

#
当导出到 .rdb 数据库时是否用LZF压缩字符串对象。   
#
默认设置为 "yes",所以几乎总是生效的。                                                          
#
如果你想节省CPU的话你可以把这个设置为 "no",但是如果你有可压缩的key的话,那数据文件就会更大了。 
rdbcompression yes
 

# Since verison 5 of RDB a CRC64 checksum is placed at the end of the file.
 
# This makes the format more resistant to corruption but there is a performance
 
# hit to pay (around 10%) when saving and loading RDB files, so you can disable it
 
# for maximum performances.
 
#
 
#
存储和加载rdb文件时校验。 
rdbchecksum yes
 

#
数据库的文件名 
dbfilename dump.rdb
 

工作目录 
#
数据库会写到这个目录下,文件名就是上面的 "dbfilename" 的值。 
#
累加文件也放这里。 
#
注意你这里指定的必须是目录,不是文件名。 
dir ./
 

#################################
同步 ################################# 
#
 
#
主从同步。通过 slaveof 配置来实现Redis实例的备份。 
#
注意,这里是本地从远端复制数据。也就是说,本地可以有不同的数据库文件、绑定不同的IP、监听不同的端口。 
#
 
# slaveof <masterip> <masterport>
 
 
 
#
如果master设置了密码(通过下面的 "requirepass" 选项来配置),那么slave在开始同步之前必须进行身份验证,否则它的同步请求会被拒绝。 
#
 
# masterauth <master-password>
 
 
 
#
当一个slave失去和master的连接,或者同步正在进行中,slave的行为有两种可能: 
#
 
# 1)
如果 slave-serve-stale-data 设置为 "yes" (默认值)slave会继续响应客户端请求,可能是正常数据,也可能是还没获得值的空数据。 
# 2)
如果 slave-serve-stale-data 设置为 "no"slave会回复"正在从master同步(SYNC with master in progress"来处理各种请求,除了 INFO SLAVEOF 命令。 

slave-serve-stale-data yes
 

 #
如果为yesslave实例只读,如果为noslave实例可读可写。 
slave-read-only yes
 

# slave
根据指定的时间间隔向服务器发送ping请求。 
#
时间间隔可以通过 repl_ping_slave_period 来设置。 
#
默认10秒。 
#
 
# repl-ping-slave-period 10
 
 
 
#
下面的选项设置了大块数据I/O、向master请求数据和ping响应的过期时间。 
#
默认值60秒。 
#
 
#
一个很重要的事情是:确保这个值比 repl-ping-slave-period 大,否则masterslave之间的传输过期时间比预想的要短。 
# repl-timeout 60
 

 #
如果master不能再正常工作,那么会在多个slave中,选择优先值最小的一个slave提升为master,优先值为0表示不能提升为master 
slave-priority 100
 

##################################
安全 ################################### 
 
 
#
要求客户端在处理任何命令时都要验证身份和密码。 
#
这在你信不过来访者时很有用。 
#
 
#
为了向后兼容的话,这段应该注释掉。而且大多数人不需要身份验证(例如:它们运行在自己的服务器上。) 
#
 
#
警告:因为Redis太快了,所以居心不良的人可以每秒尝试150k的密码来试图破解密码。 
#
这意味着你需要一个高强度的密码,否则破解太容易了。 
#
 
# requirepass foobared
 
 
 
#
命令重命名 
#
 
#
在共享环境下,可以为危险命令改变名字。比如,你可以为 CONFIG 改个其他不太容易猜到的名字,这样你自己仍然可以使用,而别人却没法做坏事了。 
#
 
#
例如: 
#
 
# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
 
#
 
#
甚至也可以通过给命令赋值一个空字符串来完全禁用这条命令: 
#
 
# rename-command CONFIG ""
 

###################################
限制 #################################### 
 
 
#
 
#
设置最多同时连接客户端数量。 
#
默认没有限制,这个关系到Redis进程能够打开的文件描述符数量。 
#
特殊值"0"表示没有限制。 
#
一旦达到这个限制,Redis会关闭所有新连接并发送错误"达到最大用户数上限(max number of clients reached" 
#
 
# maxclients 128
 
 
 
#
不要用比设置的上限更多的内存。一旦内存使用达到上限,Redis会根据选定的回收策略(参见:maxmemmory-policy)删除key 
#
 
#
如果因为删除策略问题Redis无法删除key,或者策略设置为 "noeviction"Redis会回复需要更多内存的错误信息给命令。 
#
例如,SET,LPUSH等等。但是会继续合理响应只读命令,比如:GET 
#
 
#
在使用Redis作为LRU缓存,或者为实例设置了硬性内存限制的时候(使用 "noeviction" 策略)的时候,这个选项还是满有用的。 
#
 
#
警告:当一堆slave连上达到内存上限的实例的时候,响应slave需要的输出缓存所需内存不计算在使用内存当中。 
#
这样当请求一个删除掉的key的时候就不会触发网络问题/重新同步的事件,然后slave就会收到一堆删除指令,直到数据库空了为止。 
#
 
#
简而言之,如果你有slave连上一个master的话,那建议你把master内存限制设小点儿,确保有足够的系统内存用作输出缓存。 
#
(如果策略设置为"noeviction"的话就不无所谓了) 
#
 
# maxmemory <bytes>
 

#       incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd
 

#
内存策略:如果达到内存限制了,Redis如何删除key。你可以在下面五个策略里面选: 
#
 
# volatile-lru ->
根据LRU算法生成的过期时间来删除。 
# allkeys-lru ->
根据LRU算法删除任何key 
# volatile-random ->
根据过期设置来随机删除key 
# allkeys->random ->
无差别随机删。 
# volatile-ttl ->
根据最近过期时间来删除(辅以TTL 
# noeviction ->
谁也不删,直接在写操作时返回错误。 
#
 
#
注意:对所有策略来说,如果Redis找不到合适的可以删除的key都会在写操作时返回一个错误。 
#
 
#      
这里涉及的命令:set setnx setex append 
#       incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd
 
#       sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby
 
#       zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby
 
#       getset mset msetnx exec sort
 
#
 
#
默认值如下: 
#
 
# maxmemory-policy volatile-lru
 
 
 
# LRU
和最小TTL算法的实现都不是很精确,但是很接近(为了省内存),所以你可以用样例做测试。 
#
例如:默认Redis会检查三个key然后取最旧的那个,你可以通过下面的配置项来设置样本的个数。 
#
 
# maxmemory-samples 3
 
 
 
##############################
纯累加模式 ############################### 
#
默认情况下,Redis是异步的把数据导出到磁盘上。这种情况下,当Redis挂掉的时候,最新的数据就丢了。 
#
如果不希望丢掉任何一条数据的话就该用纯累加模式:一旦开启这个模式,Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件。 
#
每次启动时Redis都会把这个文件的数据读入内存里。 
#
 
#
注意,异步导出的数据库文件和纯累加文件可以并存(你得把上面所有"save"设置都注释掉,关掉导出机制)。 
#
如果纯累加模式开启了,那么Redis会在启动时载入日志文件而忽略导出的 dump.rdb 文件。 
#
 
#
重要:查看 BGREWRITEAOF 来了解当累加日志文件太大了之后,怎么在后台重新处理这个日志文件。 
 
 
appendonly no
 
 
 
#
纯累加文件名字(默认:"appendonly.aof" 
# appendfilename appendonly.aof
 


# fsync()
请求操作系统马上把数据写到磁盘上,不要再等了。 
#
有些操作系统会真的把数据马上刷到磁盘上;有些则要磨蹭一下,但是会尽快去做。 
#
 
# Redis
支持三种不同的模式: 
#
 
# no
:不要立刻刷,只有在操作系统需要刷的时候再刷。比较快。 
# always
:每次写操作都立刻写入到aof文件。慢,但是最安全。 
# everysec
:每秒写一次。折衷方案。 
#
 
#
默认的 "everysec" 通常来说能在速度和数据安全性之间取得比较好的平衡。 
#
如果你真的理解了这个意味着什么,那么设置"no"可以获得更好的性能表现(如果丢数据的话,则只能拿到一个不是很新的快照); 
#
或者相反的,你选择 "always" 来牺牲速度确保数据安全、完整。 
#
 
#
如果拿不准,就用 "everysec" 
 
 
# appendfsync always
 
appendfsync everysec
 
# appendfsync no
 
#
如果AOF的同步策略设置成 "always" 或者 "everysec",那么后台的存储进程(后台存储或写入AOF日志)会产生很多磁盘I/O开销。 
#
某些Linux的配置下会使Redis因为 fsync() 而阻塞很久。 
#
注意,目前对这个情况还没有完美修正,甚至不同线程的 fsync() 会阻塞我们的 write(2) 请求。 
#
 
#
为了缓解这个问题,可以用下面这个选项。它可以在 BGSAVE BGREWRITEAOF 处理时阻止 fsync() 
#
 
#
这就意味着如果有子进程在进行保存操作,那么Redis就处于"不可同步"的状态。 
#
这实际上是说,在最差的情况下可能会丢掉30秒钟的日志数据。(默认Linux设定) 
#
 
#
如果你有延迟的问题那就把这个设为 "yes",否则就保持 "no",这是保存持久数据的最安全的方式。 
no-appendfsync-on-rewrite no
 
 
 
#
自动重写AOF文件 
#
 
#
如果AOF日志文件大到指定百分比,Redis能够通过 BGREWRITEAOF 自动重写AOF日志文件。 
#
 
#
工作原理:Redis记住上次重写时AOF日志的大小(或者重启后没有写操作的话,那就直接用此时的AOF文件), 
#          
基准尺寸和当前尺寸做比较。如果当前尺寸超过指定比例,就会触发重写操作。 
#
 
#
你还需要指定被重写日志的最小尺寸,这样避免了达到约定百分比但尺寸仍然很小的情况还要重写。 
#
 
#
指定百分比为0会禁用AOF自动重写特性。 
 
 
auto-aof-rewrite-percentage 100
 
auto-aof-rewrite-min-size 64mb
 

################################ LUA SCRIPTING  ###############################
 

#
一个Lua脚本最长的执行时间为5000毫秒(5秒),如果为0或负数表示无限执行时间。 
lua-time-limit 5000
 

##################################
慢查询日志 ################################## 
 
 
# Redis
慢查询日志可以记录超过指定时间的查询。运行时间不包括各种I/O时间。 
#
例如:连接客户端,发送响应数据等。只计算命令运行的实际时间(这是唯一一种命令运行线程阻塞而无法同时为其他请求服务的场景) 
#
 
#
你可以为慢查询日志配置两个参数:一个是超标时间,单位为微妙,记录超过个时间的命令。 
#
另一个是慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。 
#
 
#
下面的时间单位是微秒,所以1000000就是1秒。注意,负数时间会禁用慢查询日志,而0则会强制记录所有命令。 
slowlog-log-slower-than 10000
 
 
 
#
这个长度没有限制。只要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。(译者注:日志居然是在内存里的Orz 
slowlog-max-len 128
 

###############################
高级配置 ############################### 
 
 
#
当有大量数据时,适合用哈希编码(需要更多的内存),元素数量上限不能超过给定限制。 
#
你可以通过下面的选项来设定这些限制: 
hash-max-zipmap-entries 512
 
hash-max-zipmap-value 64
 
 
 
#
与哈希相类似,数据元素较少的情况下,可以用另一种方式来编码从而节省大量空间。 
#
这种方式只有在符合下面限制的时候才可以用: 
list-max-ziplist-entries 512
 
list-max-ziplist-value 64
 
 
 
#
还有这样一种特殊编码的情况:数据全是64位无符号整型数字构成的字符串。 
#
下面这个配置项就是用来限制这种情况下使用这种编码的最大上限的。 
set-max-intset-entries 512
 
 
 
#
与第一、第二种情况相似,有序序列也可以用一种特别的编码方式来处理,可节省大量空间。 
#
这种编码只适合长度和元素都符合下面限制的有序序列: 
zset-max-ziplist-entries 128
 
zset-max-ziplist-value 64
 
#
哈希刷新,每100CPU毫秒会拿出1个毫秒来刷新Redis的主哈希表(顶级键值映射表)。 
# redis
所用的哈希表实现(见dict.c)采用延迟哈希刷新机制:你对一个哈希表操作越多,哈希刷新操作就越频繁; 
#
反之,如果服务器非常不活跃那么也就是用点内存保存哈希表而已。 
#
 
#
默认是每秒钟进行10次哈希表刷新,用来刷新字典,然后尽快释放内存。 
#
 
#
建议: 
#
如果你对延迟比较在意的话就用 "activerehashing no",每个请求延迟2毫秒不太好嘛。 
<!--[if !supportLineBreakNewLine]-->
<!--[endif]-->

# 如果你不太在意延迟而希望尽快释放内存的话就设置 "activerehashing yes"

 #重新哈希the main Redis hash table(the one mapping top-level keys to values),这样会节省更多的空间。

activerehashing yes 
  #
对客户端输出缓冲进行限制可以强迫那些就不从服务器读取数据的客户端断开连接。对于normal client,第一个0表示取消hard limit,第二个0和第三个0表示取消soft limitnormal client默认取消限制,因为如果没有寻问,他们是不会接收数据的。 
<!--[if !supportLineBreakNewLine]-->
<!--[endif]-->

client-output-buffer-limit normal 0 0 0

 #对于slave clientMONITER client,如果client-output-buffer一旦超过256mb,又或者超过64mb持续60秒,那么服务器就会立即断开客户端连接。

client-output-buffer-limit slave 256mb 64mb 60 

#对于pubsub client,如果client-output-buffer一旦超过32mb,又或者超过8mb持续60秒,那么服务器就会立即断开客户端连接。

client-output-buffer-limit pubsub 32mb 8mb 60 

##################################
包含 ################################### 
 
 
#
包含一个或多个其他配置文件。 
#
这在你有标准配置模板但是每个redis服务器又需要个性设置的时候很有用。 
#
包含文件特性允许你引人其他配置文件,所以好好利用吧。 
#
 
# include /path/to/local.conf
 
<!--[if !supportLineBreakNewLine]-->
<!--[endif]-->

# include /path/to/other.conf

转帖 http://my.oschina.net/jing521/blog/91293

 

2.6.10差异
# TCP keepalive. 

# If non-zero, use SO_KEEPALIVE to send TCP ACKs to clients in absence 
# of communication. This is useful for two reasons: 

# 1) Detect dead peers. 
# 2) Take the connection alive from the point of view of network 
#    equipment in the middle. 

# On Linux, the specified value (in seconds) is the period used to send ACKs. 
# Note that to close the connection the double of the time is needed. 
# On other kernels the period depends on the kernel configuration. 

# A reasonable value for this option is 60 seconds. 
tcp-keepalive 0 


################################# REPLICATION ################################# 

# Disable TCP_NODELAY on the slave socket after SYNC? 

# If you select "yes" Redis will use a smaller number of TCP packets and 
# less bandwidth to send data to slaves. But this can add a delay for 
# the data to appear on the slave side, up to 40 milliseconds with 
# Linux kernels using a default configuration. 

# If you select "no" the delay for data to appear on the slave side will 
# be reduced but more bandwidth will be used for replication. 

# By default we optimize for low latency, but in very high traffic conditions 
# or when the master and slaves are many hops away, turning this to "yes" may 
# be a good idea. 
repl-disable-tcp-nodelay no 


# The slave priority is an integer number published by Redis in the INFO output. 
# It is used by Redis Sentinel in order to select a slave to promote into a 
# master if the master is no longer working correctly. 

# A slave with a low priority number is considered better for promotion, so 
# for instance if there are three slaves with priority 10, 100, 25 Sentinel will 
# pick the one wtih priority 10, that is the lowest. 

# However a special priority of 0 marks the slave as not able to perform the 
# role of master, so a slave with priority of 0 will never be selected by 
# Redis Sentinel for promotion. 

 

()

参考(http://redis.io/topics/pubsub)

SUBSCRIBE  UNSUBSCRIBE  PUBLISH 三个命令实现了发布与订阅信息泛型Publish/Subscribe messaging paradigm),在这个实现中,发送者(发送信息的客户端)不是将信息直接发送给特定的接收者(接收信息的客户端),而是将信息发送给频道(channel),然后由频道将信息转发给所有对这个频道感兴趣的订阅者。

发送者无须知道任何关于订阅者的信息,而订阅者也无须知道是那个客户端给它发送信息,它只要关注自己感兴趣的频道即可。

对发布者和订阅者进行解构(decoupling),可以极大地提高系统的扩展性(scalability),并得到一个更动态的网络拓扑(network topology)。

比如说,要订阅频道 channel1  channel2 客户端可以使用频道名字作为参数来调用 SUBSCRIBE 命令:

访问同一个服务(同一个IP)多个客户端可以同时监听数据的响应。

 

 

 

经典的广播/订阅模式,看看Redisjava实现方式:



 
广播publish message

-----------------------------------------------------------------------------------------



 

Subscribe 接收广播的信息,展示接收信息。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值