redis主从复制,哨兵,集群

主从复制

主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master) ,后者称为从节点(slave);数据的复制是单向的,只能由主节点到从节点

默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点

主从复制的作用
数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式

故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余

负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载:尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量

高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础

主从复制的流程
若启动一个slave机器进程,则它会向Master机器发送一个"sync command"命令,请求同步连接

无论是第一次连接还是重新连接,Master机器都会启动一个后台进程,将数据快照保存到数据文件中(执行rdb操作),同时Master还会记录改数据的所有命令并缓存在数据文件中

后台进程完成缓存操作之后,Master机器就会向slave机器发送数据文件,slave端机器将数据文件保存到硬盘上,然后将其加载到内存中,接着Master机器就会将修改数据的所有操作一并发送给slave端机器。若slave出现故障导致宕机,则恢复正常后会自动重新连接

Master机器收到slave端机器的连接后,将其完整的数据文件发送给slave端机器,如果Master同时收到多个slave发来的同步请求,则Master会在后台启动一个进程以保存数据文件,然后将其发送给所有的slave端机器,确保所有的slave端机器都正常

主从复制部署

master:192.168.237.128

slave1:192.168.237.129

slave2:192.168.237.148

安装过程见上一章,这一章不多做赘述

master服务器:
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# systemctl disable firewalld
[root@localhost ~]# setenforce 0
[root@localhost ~]# vim /etc/redis/6379.conf
bind 0.0.0.0 #70行,注释掉bind项,或修改为0.0.0.0,默认监听所有网卡
daemonize yes #137行,开启守护进程
logfile /var/log/redis_6379.log #172行,指定日志文件目录
dir /var/lib/redis/6379 #264行,指定工作目录
appendonly yes #700行,开启AOF持久化功能
:wq

[root@localhost ~]# /etc/init.d/redis_6379 restart #重启
Stopping …
Waiting for Redis to shutdown …
Redis stopped
Starting Redis server…

slave1服务器器:
[root@localhost utils]# vim /etc/redis/6379.conf
bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
daemonize yes #137行,开启守护进程
logfile /var/log/redis_6379.log #172行,指定日志文件目录
dir /var/lib/redis/6379 #264行,指定工作目录
replicaof 192.168.237.128 6379 #287行,取消注释并指定要同步的Master节点IP和端口
appendonly yes #700行,开启AOF持久化功能
:wq
[root@localhost utils]# /etc/init.d/redis_6379 restart
Stopping …
Waiting for Redis to shutdown …
Redis stopped
Starting Redis server…

slave2服务器:
[root@localhost utils]# vim /etc/redis/6379.conf
bind 0.0.0.0 #70行,修改监听地址为0.0.0.0
daemonize yes #137行,开启守护进程
logfile /var/log/redis_6379.log #172行,指定日志文件目录
dir /var/lib/redis/6379 #264行,指定工作目录
replicaof 192.168.237.128 6379 #287行,取消注释并指定要同步的Master节点IP和端口
appendonly yes #700行,开启AOF持久化功能
:wq
[root@localhost utils]# /etc/init.d/redis_6379 restart
Stopping …
Waiting for Redis to shutdown …
Redis stopped
Starting Redis server…

测试验证

master服务器:
[root@localhost ~]# tail -f /var/log/redis_6379.log
3286:M 14 Jun 2022 16:43:27.118 * Background saving terminated with success
3286:M 14 Jun 2022 16:43:27.118 * Synchronization with replica 192.168.237.129:6379 succeeded
3286:M 14 Jun 2022 16:55:39.903 * Replica 192.168.237.148:6379 asks for synchronization
3286:M 14 Jun 2022 16:55:39.903 * Full resync requested by replica 192.168.237.148:6379
3286:M 14 Jun 2022 16:55:39.903 * Starting BGSAVE for SYNC with target: disk
3286:M 14 Jun 2022 16:55:39.903 * Background saving started by pid 3473
3473:C 14 Jun 2022 16:55:39.905 * DB saved on disk
3473:C 14 Jun 2022 16:55:39.905 * RDB: 0 MB of memory used by copy-on-write
3286:M 14 Jun 2022 16:55:39.989 * Background saving terminated with success
3286:M 14 Jun 2022 16:55:39.989 * Synchronization with replica 192.168.237.148:6379 succeeded

[root@localhost ~]# redis-cli
127.0.0.1:6379> info replication
#Replication
role:master
connected_slaves:2
slave0:ip=192.168.237.129,port=6379,state=online,offset=1400,lag=0
slave1:ip=192.168.237.148,port=6379,state=online,offset=1400,lag=0
master_replid:22bbd462ad8ef9b0b7ede65393bc162506cb602e
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:1400
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:1400

哨兵模式

主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制

哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移

哨兵模式的作用
监控:哨兵会不断地检查主节点和从节点是否运作正常

自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点

通知(提醒):哨兵可以将故障转移的结果发送给客户端

哨兵结构由两部分组成,哨兵节点和数据节点

哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据

数据节点:主节点和从节点都是数据节点

故障转移机制

由哨兵节点定期监控发现主节点是否出现了故障每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的),当超过半数哨兵节点认为该主节点主观下线了,这样就客观下线了。

当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader,来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。

由leader哨兵节点执行故障转移

将某一个从节点升级为新的主节点,让其它从节点指向新的主节点

若原主节点恢复也变成从节点,并指向新的主节点

通知客户端瑞主节点已经更换

注:客观下线是主节点才有的概念:如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作

哨兵模式部署

master,slave1,slave2服务器设置
[root@localhost ~]# vim /opt/redis-5.0.7/sentinel.conf
protected-mode no #17行,关闭保护模式
port 26379 #21行,Redis哨兵默认的监听端口
daemonize yes #26行,指定sentinel为后台启动
logfile “/var/log/sentinel.log” #36行,指定日志存放路径
dir “/var/lib/redis/6379” #65行,指定数据库存放路径
sentinel monitor mymaster 192.168.80.10 6379 2 #84行, 修改
指定该哨兵节点监控192.168.80.10:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
sentinel down-after-milliseconds mymaster 30000 #113行,判定服务器down掉的时间周期,默认30000毫秒(30秒)
sentinel failover-timeout mymaster 180000 #146行,故障节点的最大超时时间为180000 (180秒 )
:wq

启动redis,注意优先启动master服务器,然后启动slave1和slave2
[root@localhost ~]# cd /opt/redis-5.0.7/
[root@localhost redis-5.0.7]# redis-sentinel sentinel.conf &
[1] 3835

验证哨兵模式
[root@localhost redis-5.0.7]# redis-cli -p 26379 info Sentinel
#Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.237.128:6379,slaves=2,sentinels=3
[1]+ 完成 redis-sentinel sentinel.conf

模拟破坏
master服务器:
[root@localhost redis-5.0.7]# ps -ef|grep redis #查找进程号
root 3286 1 0 16:35 ? 00:00:04 /usr/local/redis/bin/redis-server 0.0.0.0:6379
root 3836 1 0 17:28 ? 00:00:01 redis-sentinel *:26379 [sentinel]
root 3902 2790 0 17:34 pts/1 00:00:00 grep --color=auto redis
[root@localhost redis-5.0.7]# ps -ef|grep redis
root 3286 1 0 16:35 ? 00:00:04 /usr/local/redis/bin/redis-server 0.0.0.0:6379
root 3836 1 0 17:28 ? 00:00:01 redis-sentinel *:26379 [sentinel]
root 3902 2790 0 17:34 pts/1 00:00:00 grep --color=auto redis
[root@localhost redis-5.0.7]# kill -9 3286 #杀死主进程
[root@localhost redis-5.0.7]# ps -ef|grep redis
root 3836 1 0 17:28 ? 00:00:01 redis-sentinel *:26379 [sentinel]
root 3921 2790 0 17:37 pts/1 00:00:00 grep --color=auto redis

[root@localhost redis-5.0.7]# tail -f /var/log/sentinel.log #查看master日志,发现master已经切换成slave2

3836:X 14 Jun 2022 17:37:30.085 # +promoted-slave slave 192.168.237.148:6379 192.168.237.148 6379 @ mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:30.085 # +failover-state-reconf-slaves master mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:30.146 * +slave-reconf-sent slave 192.168.237.129:6379 192.168.237.129 6379 @ mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:30.667 # -odown master mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:31.089 * +slave-reconf-inprog slave 192.168.237.129:6379 192.168.237.129 6379 @ mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:31.089 * +slave-reconf-done slave 192.168.237.129:6379 192.168.237.129 6379 @ mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:31.166 # +failover-end master mymaster 192.168.237.128 6379
3836:X 14 Jun 2022 17:37:31.166 # +switch-master mymaster 192.168.237.128 6379 192.168.237.148 6379
3836:X 14 Jun 2022 17:37:31.166 * +slave slave 192.168.237.129:6379 192.168.237.129 6379 @ mymaster 192.168.237.148 6379
3836:X 14 Jun 2022 17:37:31.166 * +slave slave 192.168.237.128:6379 192.168.237.128 6379 @ mymaster 192.168.237.148 6379
3836:X 14 Jun 2022 17:38:01.232 # +sdown slave 192.168.237.128:6379 192.168.237.128 6379 @ mymaster 192.168.237.148 6379

slave服务器:
[root@localhost redis-5.0.7]# redis-cli -p 26379 INFO Sentinel #查看到master换成slave2
#Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.237.148:6379,slaves=2,sentinels=3
[1]+ 完成 redis-sentinel sentinel.conf

集群模式
集群,心即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。

集群由多个节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护,从节点只进行主节点数据和状态信息的复制。

集群的作用
数据分区:数据分区(或称数据分片)是集群最核心的功能。集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加,另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力,Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出

高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似)﹔当任一节点发生故障时,集群仍然可以对外提供服务

Redis集群的数据分片
Redis集群引入了哈希槽的概念

Redis集群有16384个哈希槽(编号0-16383)

集群的每个节点负责一部分哈希槽

每个Key通过cRc16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作

以3个节点组成的集群为例
节点A包含0到5460号哈希槽

节点B包含5461到10922号哈希槽

节点c包含10923到16383号哈希槽

Redis集群的主从复制模型
集群中具有A、B、c三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用

为每个节点添加一个从节点A1、Bl、C1整个集群便有三个Master节点和三个slave节点组成,在节点a失败后,集群选举L位为的主节点继续服务。当B和B1都失败后,集群将不可用

集群部署

master1:192.168.237.128 6001

master2:192.168.237.129 6002

master3:192.168.237.148 6003

slave1:192.168.237.138 6004

slave2:192.168.237.141 6005

slave3:192.168.237.130 6006

所有服务器上相同操作,这里仅演示一台服务器上全部操作

[root@localhost ~]# mkdir -p redis-cluster/redis6001 #目录名根据节点名称需求更改
[root@localhost ~]# cp /opt/redis-5.0.7/redis.conf /etc/redis/redis-cluster/redis6001 #复制配置文件
[root@localhost redis6001]# cp /opt/redis-5.0.7/src/redis-cli /opt/redis-5.0.7/src/redis-server /etc/redis/redis-cluster/redis6001
[root@localhost ~]# cd /etc/redis/redis-cluster/redis6001
[root@localhost redis6001]# vim redis.conf #修改配置文件
cd /etc/redis/redis-cluster/redis6001
vim redis.conf
bind 192.168.237.128 #69行,bind项,更改为本服务器IP
protected-mode no #88行,修改,关闭保护模式
port 6001 #92行,修改,redis监听端口
daemonize yes #136行,开启守护进程,以独立进程启动
appendonly yes #699行,修改,开启AOF持久化
cluster-enabled yes #832行,取消注释,开启群集功能
cluster-config-file nodes-6001.conf #840行,取消注释,群集名称文件设置
cluster-node-timeout 15000 #846行,取消注释群集超时时间设置
:wq
[root@localhost redis6001]# redis-server redis.conf #启动节点
[root@localhost redis6001]# ps -ef|grep redis
root 1230 1 0 14:50 ? 00:00:07 /usr/local/redis/bin/redis-server 0.0.0.0:6379
root 2659 1 0 15:39 ? 00:00:01 redis-server *:6001 [cluster]
root 2744 1871 0 15:48 pts/0 00:00:00 grep --color=auto redis

注:所有服务器节点端口不一样,创建目录和修改配置文件,按自己的端口来

#启动redis集群
[root@localhost redis6001]# redis-cli --cluster create 192.168.237.128:6001 192.168.237.129:6002 192.168.237.148:6003 192.168.237.138:6004 192.168.237.141:6005 192.168.237.130:6006 --cluster-replicas 1

Performing hash slots allocation on 6 nodes…
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 192.168.237.141:6005 to 192.168.237.128:6001
Adding replica 192.168.237.130:6006 to 192.168.237.129:6002
Adding replica 192.168.237.138:6004 to 192.168.237.148:6003
M: a782e81edd840f2ee61023ced35eed01f310951d 192.168.237.128:6001
slots:[0-5460] (5461 slots) master
M: b8d3861378ce050b6f23becfa25f97e5e5c6b51d 192.168.237.129:6002
slots:[5461-10922] (5462 slots) master
M: e51b2ad9fb531e255d3493fc9f275f51999043f8 192.168.237.148:6003
slots:[10923-16383] (5461 slots) master
S: 5fefe52598ead1b3894af30ec972623e3e7e536b 192.168.237.138:6004
replicates e51b2ad9fb531e255d3493fc9f275f51999043f8
S: e0602ad1d40dcdd1d34011acf86fb4274aee92f6 192.168.237.141:6005
replicates a782e81edd840f2ee61023ced35eed01f310951d
S: 12ede45b42d8767f7cc0b5edc9a095e66cd6cf03 192.168.237.130:6006
replicates b8d3861378ce050b6f23becfa25f97e5e5c6b51d
Can I set the above configuration? (type ‘yes’ to accept): yes
Nodes configuration updated
Assign a different config epoch to each node
Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join

Performing Cluster Check (using node 192.168.237.128:6001)
M: a782e81edd840f2ee61023ced35eed01f310951d 192.168.237.128:6001
slots:[0-5460] (5461 slots) master
1 additional replica(s)
S: 12ede45b42d8767f7cc0b5edc9a095e66cd6cf03 192.168.237.130:6006
slots: (0 slots) slave
replicates b8d3861378ce050b6f23becfa25f97e5e5c6b51d
M: b8d3861378ce050b6f23becfa25f97e5e5c6b51d 192.168.237.129:6002
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
S: e0602ad1d40dcdd1d34011acf86fb4274aee92f6 192.168.237.141:6005
slots: (0 slots) slave
replicates a782e81edd840f2ee61023ced35eed01f310951d
M: e51b2ad9fb531e255d3493fc9f275f51999043f8 192.168.237.148:6003
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
S: 5fefe52598ead1b3894af30ec972623e3e7e536b 192.168.237.138:6004
slots: (0 slots) slave
replicates e51b2ad9fb531e255d3493fc9f275f51999043f8
[OK] All nodes agree about slots configuration.
Check for open slots…
Check slots coverage…
[OK] All 16384 slots covered.

测试连接不同节点
[root@localhost redis6001]# redis-cli -h 192.168.237.129 -c -p 6002
192.168.237.129:6002>
[root@localhost redis6001]# redis-cli -h 192.168.237.141 -c -p 6005
192.168.237.141:6005>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值