NoSQL之Redis集群
概述
单节点Redis服务器带来的问题
单点故障,服务不可用
无法处理大量的并发数据请求
数据丢失—大灾难
解决方法
搭建Redis集群
Redis集群知识点
Redis集群介绍
Redis集群是一个提供在多个Redis间节点间共享数据的程序集
Redis集群并不支持处理多个keys的命令,因为这需要在不同的节点间移动数据,从而达不到像Redis那样的性能,在高负载的情况下可能会导致不可预料的错误
Redis集群通过分区来提供—定程度的可用性,在实际环境中当某个节点宕机或者不可达的情况下可继续处理命令
Redis集群的优势
自动分割数据到不同的节点上
整个集群的部分节点失败或者不可达的情况下能够继续处理命
Redis集群的实现方法
有客户端分片
代理分片
服务器端分片
Redis-Cluster数据分片
Redis集群没有使用一致性hash,而是引入了哈希槽概念
Redis 集群有16384个哈希槽
每个key通过CRC16校验后对16384取模来决定放置槽
集群的每个节点负责一部分哈希槽
以3个节点组成的集群为例
节点A包含0到5500号哈希槽
节点B包含5501到11000号哈希槽
节点C包含11001到16383号哈希槽支持添加或者删除节点
添加删除节点无需停止服务
如果想新添加个节点D,需要移动节点A,B,C中的部分槽到D上
如果想移除节点A,需要将A中的槽移到B和C节点上,再将没有任何槽的A节点从集群中移除
Redis-Cluster的主从复制模型
集群中具有A,B,C三个节点,如果节点B失败了,整个集群就会因缺少5501-11000这个范围的槽而不可用
为每个节点添加一个从节点A1,B1,C1,整个集群便有三个master节点和三个slave节点组成在节点B失败后,集群便会选举B1为新的主节点继续服务
当B和B1都失败后,集群将不可用
项目流程
每台服务器导入redis软件包,其中一台主redis要有群集文件
6台同时操作:
解压缩redis软件包
tar zxvf redis-5.0.4.tar.gz
cd redis-5.0.4/
make
make PREFIX=/usr/local/redis install
ln -s /usr/local/redis/bin/* /usr/local/bin/
cd redis-5.0.4/utils/
./install_server.sh
vi /etc/redis/6379.conf
cluster-enabled yes
appendonly yes
cluster-config-file nodes-6379.conf
cluster-node-timeout 15000
cluster-require-full-coverage yes
修改IP地址需要每台服务器单独修改
vi /etc/redis/6379.conf
bind 192.168.1.10
bind 192.168.1.11
bind 192.168.1.12
bind 192.168.1.13
bind 192.168.1.15
bind 192.168.1.16
六台一起操作
/etc/init.d/redis_6379 restart
在192.168.1.10服务器上,使用脚本创建群集
yum -y install ruby rubygems
gem install redis-3.2.0.gem
redis-cli --cluster create --cluster-replicas 1 192.168.1.10:6379 192.168.1.11:6379 192.168.1.12:6379 192.168.1.13:6379 192.168.1.15:6379 192.168.1:6379
测试群集
登录写入一个数据
[root@localhost ~]# redis-cli -h 192.168.1.10 -p 6379 -c
192.168.1.10:6379> set chen 111
-> Redirected to slot [10439] located at 192.168.1.11:6379
OK
另一台主服务器获取数据
[root@localhost ~]# redis-cli -h 192.168.1.13 -p 6379 -c
192.168.1.13:6379> set chen
-> Redirected to slot [10439] located at 192.168.1.11:6379
“111”
登录不同服务器获取数据
[root@localhost ~]# redis-cli -h 192.168.1.13 -p 6379 -c
192.168.1.13:6379> set chen
-> Redirected to slot [10439] located at 192.168.1.11:6379
“111”
查看集群状态
129.168.1.10:6379> cluster info
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:6
cluster_my_epoch:2
cluster_stats_messages_ping_sent:3201
cluster_stats_messages_pong_sent:4302
cluster_stats_messages_meet_sent:2
cluster_stats_messages_sent:6947
cluster_stats_messages_ping_received:3223
cluster_stats_messages_pong_received:4625
cluster_stats_messages_meet_received:4
cluster_stats_messages_received:5236