redis

Redis介绍

• Redis和Memcached类似,也属于k-v数据存储

• Redis官网redis.io

•支持更多value类型,除了和string外,还支持hash、lists(链表)、sets(集合)和sorted sets(有序集合)

• redis使用了两种文件格式:全量数据(RDB)和增量请求(aof)。全量数据格式是把内存中的数据写入磁盘,便于下次读取文件进行加载。增量请求文件则是把内存中的数据序列化为操作请求,用于读取文件进行replay得到数据,这种类似于mysql binlog。

• redis的存储分为内存存储、磁盘存储和log文件三部分

Redis安装

下载最新稳定版

• cd /usr/local/src/

• wget http://download.redis.io/releases/redis-4.0.3.tar.gz

• cd redis-4.0.3

• make && make install

• cp redis.conf /etc/redis.conf

• vim /etc/redis.conf //修改如下配置

  • daemonize yes
  • logfile "/var/log/redis.log"
  • dir /data/redis/
  • appendonly yes

• mkdir /data/redis

更改系统参数。

• sysctl vm.overcommit_memory=1

• echo never > /sys/kernel/mm/transparent_hugepage/enabled

直接执行,或把上面的两条命令加入文件  /etc/rc.local 中

启动redis

redis-server /etc/redis.conf

redis持久化

• Redis提供了两种持久化(存储)的方式,分别是RDB(Redis DataBase)和AOF(Append Only File),如果把两种方式都关闭的话,redis就会只把数据存储在内存中。

数据比较重要的话一定要做持久化。

• RDB,简而言之,就是在不同的时间点,将redis存储的数据生成快照并存储到磁盘等介质上。

• AOF,则是换了一个角度来实现持久化,那就是将redis执行过的所有写指令记录下来,在下次redis重新启动时,只要把这些写指令从前到后再重复执行一遍,就可以实现数据恢复了。

• 其实RDB和AOF两种方式也可以同时使用,在这种情况下,如果redis重启的话,则会优先采用AOF方式来进行数据恢复,这是因为AOF方式的数据恢复完整度更高。

• 如果你没有数据持久化的需求,也完全可以关闭RDB和AOF方式,这样的话,redis将变成一个纯内存数据库,就像memcache一样。

redis持久化相关参数

save 900 1 #表示每15分钟且至少有1个key改变,就触发一次持久化 

save 300 10 #表示每5分钟且至少有10个key改变,就触发一次持久化

save 60 10000 #表示每60秒至少有10000个key改变,就触发一次持久

save “”  #注释掉上面三行,打开save “”这样可以禁用rdb持久化

appendonly yes  #如果是yes,则开启aof持久化

appendfilename “appendonly.aof” # 指定aof文件名字

appendfsync everysec #指定fsync()调用模式,有三种no(不调用fsync),always(每次写都会调用fsync),everysec(每秒钟调用一次fsync)。第一种最快,第二种数据最安全,但性能会差一些,第三种为这种方案,默认为第三种。

 

redis数据类型

1、string

string为最简单的类型,与Memcached一样的类型,一个key对应一个value,其支持的操作与Memcached的操作类似,它的功能更丰富。设置可以存二进制的对象。
示例:
# redis-cli
127.0.0.1:6379> set mykey "aminglinux.com"
OK
127.0.0.1:6379> get mykey
"aminglinux.com"
127.0.0.1:6379> mset key1 1 key2 a key3 c
127.0.0.1:6379> mget key1 key2 key3
1) "1"
2) "a"
3) "c"

2、list

list是一个链表结构,主要功能是push、pop、获取一个范围的所有值等等。操作中key理解为链表的名字。
使用 list 结构,我们可以轻松地实现最新消息排行等功能(比如新浪微博的 TimeLine )。list 的另一个应用就是消息队列,可以利用 list 的 push操作,将任务存在 list 中,然后工作线程再用pop操作将任务取出进行执行。
示例:
# redis-cli 
127.0.0.1:6379> LPUSH list1 "aminglinux"127.0.0.1:6379> LPUSH list1  "1 2 3"127.0.0.1:6379> LPUSH list1 "aaa bbb“
127.0.0.1:6379> LRANGE list1 0 -1
1) "aaa bbb"
2) "1 2 3"
3) "aminglinux“
127.0.0.1:6379> LPOP list1

3、set

set是集合,和我们数学中的集合概念相似,对集合的操作有添加删除元素,有对多个集合求交并差等操作。操作中key理解为集合的名字。比如在微博应用中,可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。因为 Redis 非常人性化的为集合提供了求交集、并集、差集等操作,那么就可以非常方便的实现如共同关注、共同喜好、二度好友等功能,对上面的所有集合操作,你还可以使用不同的命令选择将结果返回给客户端还是存集到一个新的集合中。
set示例:
127.0.0.1:6379> SADD set1 a
127.0.0.1:6379> SADD set1 b
127.0.0.1:6379> SADD set1 c
127.0.0.1:6379> SADD set1 d
127.0.0.1:6379> SMEMBERS set1
1) "d"
2) "b"
3) "a"
4) "c"
127.0.0.1:6379> SREM set1 c//删除元素
127.0.0.1:6379> SADD set2 a 2  b
127.0.0.1:6379> SINTER set1 set2 //交集
127.0.0.1:6379> SUNION set1 set2 //并集
127.0.0.1:6379> SDIFF set1 set2 //差集

4、sorted set

sorted set是有序集合,它比set多了一个权重参数score,使得集合中的元素能够按 score 进行有序排列,比如一个存储全班同学成绩的 sorted sets,其集合 value 可以是同学的学号,而 score 就可以是其考试得分,这样在数据插入集合的时候,就已经进行了天然的排序。
示例:
127.0.0.1:6379> ZADD set3 12 abc
127.0.0.1:6379> ZADD set3 2 "cde 123"
127.0.0.1:6379> ZADD set3 24 "123-aaa"
127.0.0.1:6379> ZADD set3 4 "a123a"
127.0.0.1:6379> ZRANGE set3 0 -1
1) "cde 123"
2) "a123a"
3) "abc"
4) "123-aaa"

倒序 
127.0.0.1:6379> ZREVRANGE set3 0 -1
1) "123-aaa"
2) "abc"
3) "a123a"
4) "cde 123"

5、hash

在 Memcached 中,我们经常将一些结构化的信息打包成 hashmap,在客户端序列化后存储为一个字符串的值(一般是 JSON 格式),比如用户的昵称、年龄、性别、积分等。 
示例:
127.0.0.1:6379> hset hash1 name aming
127.0.0.1:6379> hget hash1 name
"aming"
127.0.0.1:6379> hset hash1  age 30
127.0.0.1:6379> hget hash1 age
"30"
127.0.0.1:6379> hgetall hash1
1) "name"
2) "aming"
3) "age"
4) "30"

redis常用操作

1、string、list

 linsert  lista  before  2 3  //在2的前面插入一个元素为3
 lset lista 4 bbb  //把第5个元素修改为bbb
 lindex lista 0  //查看第1个元素
 lindex lista 3  //查看第4个元素
 llen lista  //查看链表中有几个元素
 sadd seta aaa  //向集合seta中放入元素
 smembers seta   //查看集合中的所有元素 
 srem  seta    aaa //删除元素 
 spop  seta    //随机取出一个元素,删除
 sdiff  seta  setb   //求差集,以seta为标准
 sdiffstore setc seta setb   //求差集并且存储,存储到了setc里 
 sinter seta setb    //求交集
 sinterstore  setd seta setb  //将交集存储setd 
 sunion seta setb  //求并集
 sunionstore sete seta setb   //求并集并存储到sete

2、set、zset

 sismember seta aaa  //判断一个元素是否属于一个集合
 srandmember  seta  //随机取出一个元素,但不删除
 zadd zseta 11 123 //创建有序集合
 zrange zseta 0 -1   //显示所有元素,按顺序显示
 zrange zseta 0 -1 withscores   //可以带上分值
 zrem zseta 222  //删除指定元素
 zrank zseta  222  //返回元素的索引值,索引值从0开始,按score正向排序
 zrevrank zseta 222   //同上,不同的是,按score反序排序
 zrevrange  zseta  0 -1  反序显示所有元素,并带分值
 zcard zseta  //返回集合中所有元素的个数
 zcount  zseta 1 10  //  返回分值范围1-10的元素个数
 zrangebyscore  zseta 1 10 // 返回分值范围1-10的元素
 zremrangebyrank zseta  0 2  //删除索引范围0-2的元素,按score正向排序
 zremrangebyscore zseta  1 10 //删除分值范围1-10的元素

3、hash

 hset user1  name aming  //建立hash
 hset user1 age 30 
 hset user1 job  it
 hgetall user1
 hmset user2  name aming age 30  job it    //批量建立键值对
 hmget user2
 hmget user2 name age  job
 hdel user2 job   //删除指定filed
 hkeys user2   //打印所有的key
 hvals user2  //打印所有的values
 hlen user2  //查看hash有几个filed

redis常用操作(健值)

 keys *    //取出所有key
 keys my* //模糊匹配
 exists name  //有name键 返回1 ,否则返回0;
 del  key1 // 删除一个key    //成功返回1 ,否则返回0;
 EXPIRE key1 100  //设置key1 100s后过期
 ttl key // 查看键 还有多长时间过期,单位是s,当 key 不存在时,返回 -2 。 当 key 存在但没有设置剩余生存时间时,返回 -1 。 否则,返回 key 的剩余生存时间。
 select  0  //代表选择当前数据库,默认进入0 数据库
 move age 1  // 把age 移动到1 数据库
 persist key1   //取消key1的过期时间
 randomkey //随机返回一个key
 rename oldname newname //重命名key
 type key1 //返回键的类型

redis常用操作(服务)

 dbsize  //返回当前数据库中key的数目
 info  //返回redis数据库状态信息
 flushdb //清空当前数据库中所有的键
 flushall    //清空所有数据库中的所有的key
 bgsave //保存数据到 rdb文件中,在后台运行
 save //作用同上,但是在前台运行
 config get * //获取所有配置参数
 config get dir  //获取配置参数
 config set dir  //更改配置参数
 数据恢复: 首先定义或者确定dir目录和dbfilename,然后把备份的rdb文件放到dir目录下面,重启redis服务即可恢复数据

redis安全设置

不法人员通过扫描redis的默认服务端口(6379)登录redis,然后更改dir进一步拿到Linux系统的root权限。

1、设置监听IP

bind 127.0.0.1 2.2.2.2 //多个ip用空格隔开

2、设置监听端口

port xxxx

3、设置密码

requirepass xxxxxxxx

4、将config命令改名

rename-command CONFIG xxxx

5、禁用config

rename-command CONFIG “”

redis慢查询日志

 编辑配置文件/etc/redis.conf
 针对慢查询日志,可以设置两个参数,一个是执行时长,单位是微秒,另一个是慢查询日志的长度。当一个新的命令被写入日志时,最老的一条会从命令日志队列中被移除。 
 slowlog-log-slower-than 1000 //单位ms,表示慢于1000ms则记录日志
 slowlog-max-len 128  //定义日志长度,表示最多存128条

redis的慢查询日志存在于内存中。只能用命令行查询

 slowlog get //列出所有的慢查询日志
 slowlog get 2 //只列出2条
 slowlog len //查看慢查询日志条数

php中使用redis -安装扩展模块

 cd /usr/local/src
 wget https://coding.net/u/aminglinux/p/yuanke_centos7/git/raw/master/21NOSQL/phpredis.zip
 unzip phpredis.zip
 cd phpredis-develop
 /usr/local/php-fpm/bin/phpize
 ./configure --with-php-config=/usr/local/php-fpm/bin/php-config
 make 
 make install
 vim /usr/local/php.ini//增加extension=redis.so
 /usr/local/php-fpm/bin/php -m|grep redis//看是否有redis模块
 重启php-fpm服务

php中使用redis -存储sessions

vim /usr/local/php-fpm/etc/php.ini//更改或增加
session.save_handler = "redis" 
session.save_path = "tcp://127.0.0.1:6379" 

或者apache虚拟主机配置文件中也可以这样配置:
php_value session.save_handler " redis" 
php_value session.save_path " tcp://127.0.0.1:6379" 
 
或者php-fpm配置文件对应的pool中增加:
php_value[session.save_handler] = redis
php_value[session.save_path] = " tcp://127.0.0.1:6379 "

#wget http://study.lishiming.net/.mem_se.txt
#mv .mem_se.txt  /usr/local/apache2/htdocs/session.php
其中session.php内容可以参考 https://coding.net/u/aminglinux/p/yuanke_centos7/git/blob/master/21NOSQL/session.php
#curl -x127.0.0.1:80 www.1.com/1.php    //结果类似于1443702394<br><br>1443702394<br><br>i44nunao0g3o7vf2su0hnc5440
命令行连接redis,也可以查看到该key以及对应的值
如果想用php连接redis cluster,需要使用predis扩展
安装方法类似phpredis,predis扩展地址https://github.com/nrk/predis

redis主从配置

 为了节省资源,我们可以在一台机器上启动两个redis服务
 #cp /etc/redis.conf  /etc/redis2.conf
 #vim /etc/redis2.conf //需要修改port,dir,pidfile,logfile
 还要增加一行
 slaveof 127.0.0.1 6379
 如果主上设置了密码,还需要增加
 masterauth aminglinux>com //设置主的密码
 启动之前不要忘记创建新的dir目录
 redis-server /etc/redis2.conf
 测试:在主上创建新的key,在从上查看
 注意:redis主从和mysql主从不一样,redis主从不用事先同步数据,它会自动同步过去

redis集群

b2a92c3eb6a4c18b03b9d19acdfca1e5d72.jpg

  • 多个redis节点网络互联,数据共享
  • 所有的节点都是一主一从(可以是多个从),其中从不提供服务,仅作为备用
  • 不支持同时处理多个键(如mset/mget),因为redis需要把键均匀分布在各个节点上,并发量很高的情况下同时创建键值会降低性能并导致不可预测的行为
  • 支持在线增加、删除节点
  • 客户端可以连任何一个主节点进行读写

codis第三方解决方案(路由技术)。

redis集群配置

场景设置:
 两台机器,分别开启三个Redis服务(端口)
 A机器上三个端口7000,7002,7004,全部为主
 B机器上三个端口7001,7003,7005,全部为从
 两台机器上都要编译安装redis,然后编辑并复制3个不同的redis.conf,分别设置不同的端口号、dir等参数,还需要增加cluster相关参数,然后分别启动6个redis服务
 具体redis配置文件大家到https://coding.net/u/aminglinux/p/yuanke_centos7/git/tree/master/21NOSQL下载或者查看

步骤:

A机器上有redis,B机器上没有,同步A机器上的编译好的源码包到B机器上。

scp /usr/local/src/redis-4.0.3 192.168.66.140: /usr/local/src/

B机器上直接安装:make install

配置redis.conf文件

A机器上:

/etc/redis_7000.conf

/etc/redis_7002.conf

/etc/redis_7004.conf

内容:https://coding.net/u/aminglinux/p/yuanke_centos7/git/tree/master/21NOSQL

B机器上:

/etc/redis_7001.conf

/etc/redis_7003.conf

/etc/redis_7005.conf

A、B机器上启动redis服务

安装ruby 2.2 (只需在一台机器上安装)

在安装ruby 2.2 时因为yum仓库中没有 2.2 版本的ruby,两个选择:1.源码编译包安装;2.下载源码包制作成rpm包安装。

ruby的安装我们选择先下载源码包,再把源码包制作成rpm包

#yum -y groupinstall "Development Tools"

#yum -y install gdbm-devel libdb4-devel libffi-devel libyaml libyaml-devel ncurses-devel openssl-devel readline-devel tcl-deve

#cd /root/

#mkdir -p rpmbuild/{BUILD,BUILDROOT,RPMS,SOURCES,SPECS,SRPMS}

#wget http://cache.ruby-lang.org/pub/ruby/2.2/ruby-2.2.3.tar.gz -P rpmbuild/SOURCES

#wget https://raw.githubusercontent.com/tjinjin/automate-ruby-rpm/master/ruby22x.spec -P rpmbuild/SPECS

生成rpm包:

#rpmbuild -bb rpmbuild/SPECS/ruby22x.spec

yum安装 ruby 2.2 的 rpm 包

#yum -y localinstall rpmbuild/RPMS/x86_64/ruby-2.2.3-1.el7.centos.x86_64.rpm

ruby -v 查看ruby版本

[root@master ~]# ruby -v
ruby 2.2.3p173 (2015-08-18 revision 51636) [x86_64-linux]
#gem install redis

redis集群配置

搭建集群:

cp /usr/local/src/redis-4.0.3/src/redis-trib.rb /usr/bin/

用redis-trib.rb生成redis cluster

redis-trib.rb create --replicas 1 192.168.66.139:7000 192.168.66.139:7002 192.168.66.139:7004 192.168.66.140:7001 192.168.66.140:7003 192.168.66.140:7005

[root@master ~]# redis-trib.rb create --replicas 1 192.168.66.139:7000 192.168.66.139:7002 192.168.66.139:7004 192.168.66.140:7001 192.168.66.140:7003 192.168.66.140:7005
>>> Creating cluster
>>> Performing hash slots allocation on 6 nodes...
Using 3 masters:
192.168.66.139:7000
192.168.66.140:7001
192.168.66.139:7002
Adding replica 192.168.66.140:7003 to 192.168.66.139:7000
Adding replica 192.168.66.139:7004 to 192.168.66.140:7001
Adding replica 192.168.66.140:7005 to 192.168.66.139:7002
M: 435b361354f8511c42169c96cbc092ce2e270b09 192.168.66.139:7000
   slots:0-5460 (5461 slots) master
M: e39c6e0a7a47d118aa458db66e69ecd3ce473f79 192.168.66.139:7002
   slots:10923-16383 (5461 slots) master
S: 4ed8da7d06da0ddf113553717d759ee5f356c965 192.168.66.139:7004
   replicates 2a154d93b16a6b13c650e22c853708e36454ecbf
M: 2a154d93b16a6b13c650e22c853708e36454ecbf 192.168.66.140:7001
   slots:5461-10922 (5462 slots) master
S: c9934e7be29d2abc1c16933707d64c23c64f884e 192.168.66.140:7003
   replicates 435b361354f8511c42169c96cbc092ce2e270b09
S: c6d6a0c3fb904be173e35ebf51fcbf01a5718b4c 192.168.66.140:7005
   replicates e39c6e0a7a47d118aa458db66e69ecd3ce473f79
Can I set the above configuration? (type 'yes' to accept): yes

选择yes

>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join.....
>>> Performing Cluster Check (using node 192.168.66.139:7000)
M: 435b361354f8511c42169c96cbc092ce2e270b09 192.168.66.139:7000
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
M: 2a154d93b16a6b13c650e22c853708e36454ecbf 192.168.66.140:7001
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
S: 4ed8da7d06da0ddf113553717d759ee5f356c965 192.168.66.139:7004
   slots: (0 slots) slave
   replicates 2a154d93b16a6b13c650e22c853708e36454ecbf
S: c6d6a0c3fb904be173e35ebf51fcbf01a5718b4c 192.168.66.140:7005
   slots: (0 slots) slave
   replicates e39c6e0a7a47d118aa458db66e69ecd3ce473f79
M: e39c6e0a7a47d118aa458db66e69ecd3ce473f79 192.168.66.139:7002
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
S: c9934e7be29d2abc1c16933707d64c23c64f884e 192.168.66.140:7003
   slots: (0 slots) slave
   replicates 435b361354f8511c42169c96cbc092ce2e270b09
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

成功搭建redis集群。

redis集群操作

1.登录集群:

#redis-cli -c -h 192.168.66.139 -p 7000

其中:-c是以集群方式登录redis

redis集群中任意节点都可以创建key和查看key。

[root@master ~]# redis-cli -c -h 192.168.66.139 -p 7000
192.168.66.139:7000> set key1 123
-> Redirected to slot [9189] located at 192.168.66.140:7001
OK
192.168.66.140:7001> set key2 abc
-> Redirected to slot [4998] located at 192.168.66.139:7000
OK
192.168.66.139:7000> set key2 abd
OK
192.168.66.139:7000> set key3 abd
OK
192.168.66.139:7000> set key4 adsabd
-> Redirected to slot [13120] located at 192.168.66.139:7002
OK
192.168.66.139:7002> get key3
-> Redirected to slot [935] located at 192.168.66.139:7000
"abd"
192.168.66.139:7000> get key4
-> Redirected to slot [13120] located at 192.168.66.139:7002
"adsabd"
192.168.66.139:7002> 

2.检测集群状态:

[root@master ~]# redis-trib.rb check 192.168.66.139:7004
>>> Performing Cluster Check (using node 192.168.66.139:7004)
S: 4ed8da7d06da0ddf113553717d759ee5f356c965 192.168.66.139:7004
   slots: (0 slots) slave
   replicates 2a154d93b16a6b13c650e22c853708e36454ecbf
M: 435b361354f8511c42169c96cbc092ce2e270b09 192.168.66.139:7000
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
S: c9934e7be29d2abc1c16933707d64c23c64f884e 192.168.66.140:7003
   slots: (0 slots) slave
   replicates 435b361354f8511c42169c96cbc092ce2e270b09
S: c6d6a0c3fb904be173e35ebf51fcbf01a5718b4c 192.168.66.140:7005
   slots: (0 slots) slave
   replicates e39c6e0a7a47d118aa458db66e69ecd3ce473f79
M: 2a154d93b16a6b13c650e22c853708e36454ecbf 192.168.66.140:7001
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
M: e39c6e0a7a47d118aa458db66e69ecd3ce473f79 192.168.66.139:7002
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
[root@master ~]# 

3.列出集群节点:

>cluster nodes

192.168.66.139:7000> CLUSTER NODES
2a154d93b16a6b13c650e22c853708e36454ecbf 192.168.66.140:7001@17001 master - 0 1550988417000 4 connected 5461-10922
4ed8da7d06da0ddf113553717d759ee5f356c965 192.168.66.139:7004@17004 slave 2a154d93b16a6b13c650e22c853708e36454ecbf 0 1550988419000 4 connected
435b361354f8511c42169c96cbc092ce2e270b09 192.168.66.139:7000@17000 myself,master - 0 1550988419000 1 connected 0-5460
c6d6a0c3fb904be173e35ebf51fcbf01a5718b4c 192.168.66.140:7005@17005 slave e39c6e0a7a47d118aa458db66e69ecd3ce473f79 0 1550988417773 6 connected
e39c6e0a7a47d118aa458db66e69ecd3ce473f79 192.168.66.139:7002@17002 master - 0 1550988419791 2 connected 10923-16383
c9934e7be29d2abc1c16933707d64c23c64f884e 192.168.66.140:7003@17003 slave 435b361354f8511c42169c96cbc092ce2e270b09 0 1550988420000 5 connected
192.168.66.139:7000> 

4.查看集群信息:

>cluster info

192.168.66.139:7000> CLUSTER INFO
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:1
cluster_stats_messages_ping_sent:8671
cluster_stats_messages_pong_sent:8656
cluster_stats_messages_sent:17327
cluster_stats_messages_ping_received:8651
cluster_stats_messages_pong_received:8668
cluster_stats_messages_meet_received:5
cluster_stats_messages_received:17324

5.添加节点:

>cluster meet ip port //添加的节点都是master节点

192.168.66.139:7000> CLUSTER MEET 192.168.66.140 7007
OK
192.168.66.139:7000> CLUSTER nodes
2a154d93b16a6b13c650e22c853708e36454ecbf 192.168.66.140:7001@17001 master - 0 1550992103000 4 connected 5461-10922
4ed8da7d06da0ddf113553717d759ee5f356c965 192.168.66.139:7004@17004 slave 2a154d93b16a6b13c650e22c853708e36454ecbf 0 1550992102801 4 connected
435b361354f8511c42169c96cbc092ce2e270b09 192.168.66.139:7000@17000 myself,master - 0 1550992101000 1 connected 0-5460
c6d6a0c3fb904be173e35ebf51fcbf01a5718b4c 192.168.66.140:7005@17005 slave e39c6e0a7a47d118aa458db66e69ecd3ce473f79 0 1550992102000 6 connected
2857e056165f38baf05bb2f9be8382c64d71d8f2 192.168.66.140:7007@17007 master - 0 1550992104000 0 connected
e39c6e0a7a47d118aa458db66e69ecd3ce473f79 192.168.66.139:7002@17002 master - 0 1550992103812 2 connected 10923-16383
c9934e7be29d2abc1c16933707d64c23c64f884e 192.168.66.140:7003@17003 slave 435b361354f8511c42169c96cbc092ce2e270b09 0 1550992104824 5 connected

6.把当前节点设置成指定节点的从节点:

>cluster replicate node_id

例如:把7004设置成7007的从节点

登录7004执行:

>cluster replicate 2857e056165f38baf05bb2f9be8382c64d71d8f2    //2857e056165f38baf05bb2f9be8382c64d71d8f2 为7007的node_id

192.168.66.139:7004> CLUSTER REPLICATE 2857e056165f38baf05bb2f9be8382c64d71d8f2
OK
192.168.66.139:7004> 

7.移除某个节点:

>cluster forget node_id

注意:master节点是不能直接移除的,若要移除,先把其更改为slave。

8.保存配置文件:

>cluster saveconfig

保存后,nodes信息会记录在登录redis的dir文件中 /data/redis/redis_7004.conf

在php中使用redis cluster 集群

https://www.zybuluo.com/phper/note/248555

转载于:https://my.oschina.net/u/3993922/blog/3014131

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值