黑猴子的家:Redis 集群搭建

1、安装ruby,准备环境

redis cluster 集群搭建,要比使用中间件,简单的多,因为redis非常暖心的给我们准备ruby脚本,只要你把集群的环境搭建好了,组合这个集群你不用自己去敲,如果你自己去敲这些复杂的领命,可能特别麻烦,redis呢? 做了一个ruby脚本,你只要能执行这个ruby脚本, redis会自动把这个集群连接起来,但是问题是,你的先有这个执行ruby脚本的环境,默认是没有ruby环境的,需要我们来安装一下

(1)查看 yum源 是否有 ruby ,
考虑兼容问题,尽量从本地CentoS 镜像文件里面装。

[root@hadoop102 ~]# yum list | grep ruby

(2)执行安装包
依次执行在安装光盘下的Package目录(/media/CentOS_6.8_Final/Packages)下的rpm包

[root@hadoop102 Packages]# cd /media/CentOS_6.8/Packages/
[root@hadoop102 Packages]# pwd
/media/CentOS_6.8/Packages
[root@hadoop102 Packages]# rpm -ivh compat-readline5-5.2-17.1.el6.x86_64.rpm
[root@hadoop102 Packages]# rpm -ivh ruby-libs-1.8.7.374-4.el6_6.x86_64.rpm
[root@hadoop102 Packages]# rpm -ivh ruby-1.8.7.374-4.el6_6.x86_64.rpm
[root@hadoop102 Packages]# rpm -ivh ruby-irb-1.8.7.374-4.el6_6.x86_64.rpm
[root@hadoop102 Packages]# rpm -ivh ruby-rdoc-1.8.7.374-4.el6_6.x86_64.rpm
[root@hadoop102 Packages]# rpm -ivh rubygems-1.3.7-5.el6.noarch.rpm

(3)如果光盘需要挂载,查看下面连接
https://www.cnblogs.com/heihouzi/p/8662719.html

(4)拷贝redis-3.2.0.gem到/opt目录下
ruby本身不具备操作redis,我们可以在ruby中添加redis插件,这样就可以使ruby操作redis了
redis-3.2.0.gem 百度下载一个即可

(5)在ruby中安装redis插件

[root@hadoop102 opt]# gem install --local redis-3.2.0.gem

2、ruby环境准备好了,我们来看一下redis集群搭建步骤

(1)制作6个实例,6379,6380,6381,6389,6390,6391
(2)拷贝多个redis.conf文件
(3) 开启daemonize yes
(4)Pid文件名字
(5)指定端口
(6)Log文件名字
(7)Dump.rdb名字
(8)Appendonly 关掉或者换名字

3、配置 redis cluster 集群文件

(1)redis6379.conf

[root@hadoop102 redis-3.2.5]# vim redis6379.conf
include /myredis/redis.conf
port 6379
pidfile /var/run/redis_6379.pid
dbfilename dump6379.rdb
cluster-enabled yes
cluster-config-file  nodes-6379.conf
cluster-node-timeout 15000

(2)创建80、81、89、90、91

[root@hadoop102 redis-3.2.5]# cp redis6379.conf redis6380.conf
[root@hadoop102 redis-3.2.5]# cp redis6379.conf redis6381.conf
[root@hadoop102 redis-3.2.5]# cp redis6379.conf redis6389.conf
[root@hadoop102 redis-3.2.5]# cp redis6379.conf redis6390.conf
[root@hadoop102 redis-3.2.5]# cp redis6379.conf redis6391.conf

(3)修改80、81、89、90、91 配置文件

[root@hadoop102 redis-3.2.5]# vim redis6380.conf
:%s/6379/6380

[root@hadoop102 redis-3.2.5]# vim redis6381.conf
:%s/6379/6381

[root@hadoop102 redis-3.2.5]# vim redis6389.conf
:%s/6379/6389

[root@hadoop102 redis-3.2.5]# vim redis6390.conf
:%s/6379/6390

[root@hadoop102 redis-3.2.5]# vim redis6391.conf
:%s/6379/6391

(4)Redis 集群模式,新增的配置

cluster-enabled yes 打开集群模式

cluster-config-file nodes-6379.conf 设定节点配置文件名

cluster-node-timeout 15000 设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换

4、删除 RDB 和 AOF 文件

[root@hadoop102 redis-3.2.5]# rm -rf dump.rdb
[root@hadoop102 redis-3.2.5]# rm -rf appendonly.aof

5、查看redis进程并启动redis

[root@hadoop102 redis-3.2.5]# ps -ef | grep redis

[root@hadoop102 redis-3.2.5]# redis-server redis6379.conf
[root@hadoop102 redis-3.2.5]# redis-server redis6380.conf
[root@hadoop102 redis-3.2.5]# redis-server redis6381.conf
[root@hadoop102 redis-3.2.5]# redis-server redis6389.conf
[root@hadoop102 redis-3.2.5]# redis-server redis6390.conf
[root@hadoop102 redis-3.2.5]# redis-server redis6391.conf

[root@hadoop102 redis-3.2.5]# ps -ef | grep redis  

6、运行ruby脚本,将六个节点,进行合体

[root@hadoop102 ~]# cd /opt/module/redis-3.2.5/src
[root@hadoop102 src]# ./redis-trib.rb create --replicas 1 \
192.168.31.211:6379 \
192.168.31.211:6380 \
192.168.31.211:6381 \
192.168.31.211:6389 \
192.168.31.211:6390 \
192.168.31.211:6391

yes

[ok] ALL 16384 slots covered

此处不要用127.0.0.1, 请用真实IP地址

7、查看集群节点状态

[root@hadoop102 redis]# redis-cli
127.0.0.1:6379> cluster nodes

9193428-42dfcf2efab9ca7f.png

8、redis cluster 如何分配这六个节点?

(1)一个集群至少要有三个主节点

(2)选项 --replicas 1 表示我们希望为集群中的每个主节点创建一个从节点

(3)分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上

9、什么是 slots ?

一个 Redis 集群包含 16384 个插槽(hash slot)
数据库中的每个键都属于这 16384 个插槽的其中一个, 集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。

集群中的每个节点负责处理一部分插槽,槽主要左右是均衡分布数据,类似于hbase的预分区,hash分布
举个例子, 如果一个集群可以有主节点, 其中:
节点 A 负责处理 0 号至 5500 号插槽。
节点 B 负责处理 5501 号至 11000 号插槽。
节点 C 负责处理 11001 号至 16383 号插槽。

9193428-a6e0248ad65d81b6.png

10、redis集群登录方式

[root@hadoop102 redis]# redis-cli -c
127.0.0.1:6379> set k1 v1
-> Redirected to slot [12706] located at 192.168.67.143:6381
ok

127.0.0.1:6379> get k1
"v1"

11、在集群中录入值

(1)在redis-cli每次录入、查询键值,redis都会计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,并告知应前往的redis实例地址和端口。

(2)redis-cli客户端提供了 -c 参数实现自动重定向。
如 redis-cli -c -p 6379 登入后,再录入、查询键值对可以自动重定向。

集群客户端登录方式

[root@hadoop102 myredis]# redis-cli -c
127.0.0.1:6379> set k1 v1
-> Redirected to slot [12706] located at 192.168.67.143:6381
ok
127.0.0.1:6379> get k1
"v1"

(3)不在一个slot下的键值,是不能使用mget,mset等多键操作

192.168.67.143:6381> mset k1 v1 k2 v2 k3 v3
(error) CROSSSLOT Keys in request don't hash to the same slot

注:mset,mget 具有原子性不可切割,当时操作的键值 可能不在一个槽里面,所以失败

(4)可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去

192.168.67.143:6381> mset k1{user} v1 k2{user} v2  k3{user} v3
-> Redirected to slot [5474] located at 192.168.67.143:6380
ok

192.168.67.143:6380> set user v100
ok

192.168.67.143:6380>   

注:通过{} 的内容取模,使其放到一个槽里面,使用时,只需要重新规划键值

12、查询集群中的值

(1)CLUSTER KEYSLOT <key> 计算键 key 应该被放置在哪个槽上

192.168.67.143:6380> cluster keyslot user
(integer) 5474

192.168.67.143:6380> cluster keyslot abc{user}
(integer) 5474

注:查看key 在 那个槽的范围内

(2)CLUSTER COUNTKEYSINSLOT <slot> 返回槽 slot 目前包含的键值对数量

192.168.67.143:6380> cluster countkeysinslot 5474
(integer) 4

注:查看5474 这个槽里面有多少个键值数量

(3)CLUSTER GETKEYSINSLOT <slot> <count> 返回 count 个 slot 槽中的键

192.168.67.143:6380> cluster getkeysinslot 5474 10
(integer) 5474
1) "k1{user}"
2) "k2{user}"
3) "k3{user}"
4) "k4{user}"
5) "user"

注: 获取5474 这个槽 10个键

13、故障恢复

(1)制造 redis 集群一台master节点 宕机

[root@hadoop102 myredis]# redis-cli -c -p 6379
192.168.67.143:6379> cluster nodes
//登录主节点,shutdown
192.168.67.143:6379> shutdown

(2)登录redis集群其他节点,查看集群状态

[root@hadoop102 myredis]# redis-cli -c -p 6380
//失联15秒, 发现从机变成主机了
192.168.67.143:6380> cluster nodes

(3)死掉的主机又活 过来了

[root@hadoop102 redis-3.2.5]# redis-server redis6379.conf
[root@hadoop102 myredis]# redis-cli -c -p 6379
//发现死灰复燃的主机,活过来变成了从机
192.168.67.143:6379> cluster nodes

9193428-fcdb7d525a942419.png

(4)如果主节点下限?从节点能否自动升为主节点?

能,在没有哨兵的情况下也是可以的

(5)主节点恢复后,主从关系会如何?

主从颠倒,主节点恢复后,变从节点

(6)如果所有某一段插槽的主从节点都当掉,redis服务是否还能继续?

看redis.conf配置文件中的参数设置
cluster-require-full-coverage 为yes ,集群下线
no就先凑合用,会有数据丢失

[root@hadoop102 redis]# vim redis.conf
cluster-require-full-coverage yes

这里主要看业务,数据的重要性, 特别重要,设置为yes

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值