redis集群
- 主从复制模式
- Sentinel模式
- Cluster模式
主从复制模式
简介:主从复制是redis集群三种模式中最简单的,在此模式中,数据库分为两种,主数据库(master)和从数据库(slave)
特点:
- 主数据库可以进行读写操作,当读写操作导致数据变化时会自动将数据同步给从数据库
- 从数据库一般都是只读的,并且接受主数据库同步过来的数据
- 一个master可以有多个slave,但每一个slave只能对应一个master
- slave挂了不影响其他slave的读和master的读和写,重新启动后会将数据从master同步过来
- master挂了之后,不会影响slave的读,但redis不再提供写服务,master重启后redis将重新对外提供写服务
- master挂了以后,不会在slave节点中重新选择一个master
工作机制:当slave启动后,主动向master发送SYNC命令。当master接收到SYNC命令后在后台保存快照(RDB持久化)和缓存保存快照这段时间的命令,然后将保存的快照文件和缓存的命令发送给slave。slave接收到快照文件和命令后加载快照文件和缓存的执行命令。
复制初始化后,master每次接收到的写命令都会同步发送给slave,保证主从数据一致性。
安全设置:当master节点设置密码后
- 客户端访问master需要密码
- 启动slave需要密码,在配置文件中配置
- 客户端访问slave不需要密码
缺点:master节点在主从模式中唯一,但是master挂掉了就没办法对外提供写服务。
搭建过程
-
环境准备
- 三台安装好redis的服务器,本地虚拟机等
-
修改配置
修改redis配置文件
将masterauth和requirepass设置
masteauth在slave必须设置,master可以省略;requirepass在master必须设置,slave可以省略
修改主master配置文件
# 编辑主master配置文件,在安装redis 的目录 # vim /mydata/myredis/redis-6.2.5/redis.conf bind 192.168.16.129 # 监听ip,多个ip用空格隔开 daemoniez yes # 允许后台启动 logfile "/mydata/myredis/redis-6.2.5/redis.log" # 设置日志路径 dir /mydata/myredis/data # 设置数据库备份文件 masterauth 991009 # 设置slave连接master密码,master可以省略 requirepass 991009 # 设置master连接密码,slave可以省略 appendonly yes # 在/mydata/myredis/data生成appendonly.aof文件,将每一次写操作追加到 appendonly.aof中
修改从slave:134配置文件
# 编辑主配置文件,在安装redis 的目录 # vim /mydata/myredis/redis-6.2.5/redis.conf bind 192.168.16.134 # 监听ip,多个ip用空格隔开 daemoniez yes # 允许后台启动 logfile "/mydata/myredis/redis-6.2.5/redis.log" # 设置日志路径 dir /mydata/myredis/data # 设置数据库备份文件 masterauth 991009 # 设置slave连接master密码,master可以省略 requirepass 991009 # 设置master连接密码,slave可以省略 appendonly yes # 在/mydata/myredis/data生成appendonly.aof文件,将每一次写操作追加到 appendonly.aof中
修改从slave:135配置文件
# 编辑主配置文件,在安装redis 的目录 # vim /mydata/myredis/redis-6.2.5/redis.conf bind 192.168.16.135 # 监听ip,多个ip用空格隔开 daemoniez yes # 允许后台启动 logfile "/mydata/myredis/redis-6.2.5/redis.log" # 设置日志路径 dir /mydata/myredis/data # 设置数据库备份文件 masterauth 991009 # 设置slave连接master密码,master可以省略 requirepass 991009 # 设置master连接密码,slave可以省略 appendonly yes # 在/mydata/myredis/data生成appendonly.aof文件,将每一次写操作追加到 appendonly.aof中
-
启动并查看状态
# 启动命令如下 启动三个redis # /usr/local/bin/redis-server /mydata/myredis/redis-6.2.5/redis.conf # 使用cli登录进去查看集群信息 # /usr/local/bin/redis-cli -h 192.168.16.129 -a 991009 > info replication
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Rb8FtHxB-1658993567961)(D:\笔记文档\中间件\redis集群图片\image-20211121145017079.png)]
显示集群信息结果
-
数据演示
master节点可以进行读写操作
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7hb21w9h-1658993567962)(D:\笔记文档\中间件\redis集群图片\image-20211121145546321.png)]
salve节点的话只能进行读操作,写操作要进行警告
但是salve节点可以获取到所有的key,同步到master的所有数据 salve节点。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nJM0WR3m-1658993567962)(D:\笔记文档\中间件\redis集群图片\image-20211121145738264.png)]
主从模式弊端是不具备高可用性,如果说master一旦挂掉,redis就不能再对外提供写入操作。
Sentinel模式
简介:sentinel中文是哨兵的意思,作用就是监控redis集群的运行状况
特点:
- sentinel模式是建立在主从模式的基础上,如果只有一个节点,sentinel就没有任何意义
- 当master挂了以后,sentinel会在slave中选择一个作为master,并修改他们的配置文件,其他slave的配置文件也会被修改,比如slaveof属性会指向新的master
- 当master重新启动后,它将不再是master,而是作为slave接受新的master的同步数据
- sentinel因为也是一个进程有挂掉的可能,所以sentinel也会启动多个形成一个sentinel集群
- 多sentinel配置的时候,sentinel之间也会自动监控
- 当主从模式配置密码时,sentinel也会同步将配置信息修改到配置文件中,不用担心
- 一个sentinel或者sentinel集群可以管理多个主从redis,多个sentinel也可以监控同一个reids
- sentinel最好不要和redis部署在同一台机器,不然redis服务器挂了后,sentinel也挂了
工作机制:
每个sentinel以每秒钟一次的频率向它所知的master,slave以及其他的sentinel实例发送一个PING命令
如果一个实例距离最后一次有效回复ping命令的时间超过down-after-milliseconds 选项所指定的值,这个实例会被sentinel标记为主观下线
如果一个master被标记为主观下线,则正在监视这个master的所有sentinel要以每秒一次的频率确认master的确进入了主观下线状态
当有足够数量的sentinel(大于或者等于配置文件指定的值)在指定的时间范围内确认master的确进入了主观下线状态,则master会被标记为客观下线状态
在一般情况下,每个sentinel会以每10秒一次的频率向它已知的所有master,slave发送info命令
当master被sentinel标记为客观下线时,sentinel向下线的master的所有slave发送info命令
如果没有足够数量的sentinel同意master已经下线,master的客观下线状态就会被移除
如果master重新向sentinel的ping命令返回有效回复,master的主观下线状态就会被移除
当使用sentinel模式的时候,客户端就不要直接连接redis,而是连接sentinel的ip和port,由sentinel来提供具体的可提供服务的redis实现,这样当master节点挂掉之后,sentinel就会感知并将新的master节点提供给使用者。
搭建过程
-
环境准备
同主从模式一致即可
-
修改配置
# vim /mydata/myredis/redis-6.2.5/sentinel.conf daemonize yes logfile "/mydata/myredis/redis-6.2.5/sentinel.log" dir "/mydata/myredis/redis-6.2.5/sentinel" #sentinel工作目录 sentinel monitor mymaster 192.168.16.129 6379 2 #判断master失效至少需要2个sentinel同意,一般设置为n/2+1,n为sentinel个数 sentinel auth-pass mymaster 991009 sentinel down-after-milliseconds mymaster 30000 #判断master默认30秒后主观下线时间
其他服务器的sentinel配置一样
-
启动并查看状态
先启动redis集群,在此基础上启动redis-sentinel服务,因为redis-sentinel也是一个集群,所以都要启动都是以配置文件方式启动。
状态:
# 查看日志 # tail -f /mydata/myredis/redis-6.2.5/sentinel.log
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FEtSJUo2-1658993567963)(D:\笔记文档\中间件\redis集群图片\微信图片_20211121174520.png)]
sentinel模式下的几个事件:
- +reset-master :主服务器已被重置。
- +slave :一个新的从服务器已经被 Sentinel 识别并关联。
- +failover-state-reconf-slaves :故障转移状态切换到了 reconf-slaves 状态。
- +failover-detected :另一个 Sentinel 开始了一次故障转移操作,或者一个从服务器转换成了主服务器。
- +slave-reconf-sent :领头(leader)的 Sentinel 向实例发送了 SLAVEOF 命令,为实例设置新的主服务器。
- +slave-reconf-inprog :实例正在将自己设置为指定主服务器的从服务器,但相应的同步过程仍未完成。
- +slave-reconf-done :从服务器已经成功完成对新主服务器的同步。
- -dup-sentinel :对给定主服务器进行监视的一个或多个 Sentinel 已经因为重复出现而被移除 —— 当 Sentinel 实例重启的时候,就会出现这种情况。
- +sentinel :一个监视给定主服务器的新 Sentinel 已经被识别并添加。
- +sdown :给定的实例现在处于主观下线状态。
- -sdown :给定的实例已经不再处于主观下线状态。
- +odown :给定的实例现在处于客观下线状态。
- -odown :给定的实例已经不再处于客观下线状态。
- +new-epoch :当前的纪元(epoch)已经被更新。+try-failover :一个新的故障迁移操作正在执行中,等待被大多数 Sentinel 选中(waiting to be elected by the majority)。
- +elected-leader :赢得指定纪元的选举,可以进行故障迁移操作了。
- +failover-state-select-slave :故障转移操作现在处于 select-slave 状态 —— Sentinel 正在寻找可以升级为主服务器的从服务器。
- no-good-slave :Sentinel 操作未能找到适合进行升级的从服务器。Sentinel 会在一段时间之后再次尝试寻找合适的从服务器来进行升级,又或者直接放弃执行故障转移操作。
- selected-slave :Sentinel 顺利找到适合进行升级的从服务器。
- failover-state-send-slaveof-noone :Sentinel 正在将指定的从服务器升级为主服务器,等待升级功能完成。
- failover-end-for-timeout :故障转移因为超时而中止,不过最终所有从服务器都会开始复制新的主服务器(slaves will eventually be configured to replicate with the new master anyway)。
- failover-end :故障转移操作顺利完成。所有从服务器都开始复制新的主服务器了。
- +switch-master :配置变更,主服务器的 IP 和地址已经改变。 这是绝大多数外部用户都关心的信息。
- +tilt:进入 tilt 模式。
- -tilt:退出 tilt 模式。
sentinel解决了主从集群的master挂了无法对外提供写服务的缺点,即便master节点挂掉也会在剩下的节点中选择一个节点成为master,即便后来master再连上也不再是master,会作为slave节点提供服务。具备高可用性。
Cluster模式
介绍:sentinel模式基本可以满足大部分生产需求,具备高可用性。但是当数据量过大到一台服务器存放不下 的情况时,主从模式或者sentinel模式就不能满足需求了。这个时候需要对存储的数据进行分片,将数 据存储到多个redis实例中。cluster模式的出现就是为了解决单机redis容量有限的问题。将redis的数 据按照一定的规则分配到多台机器。
使用cluster只需要将配置文件中的cluster-enable配置打开即可。每个集群中至少需要三个主数据库 才能正常运行,新增节点非常方便。
特点:
* 多个redis节点网络互联,数据共享 * 所有的节点都是一主一从(也可以时一主多从),其中从不提供服务,仅作为备用 * 不支持同时处理多个key(如MSET/MGET)因为redis需要把key均匀分布在各个节点上,并发量很高的情况下同时创建key-value会降低性能并导致不可预测的行为 * 支持在线增加、删除节点 * 客户端可以连接任何一个主节点进行读写
环境搭建
环境准备
- 三台机器与上面一致,分别开启两个redis服务(端口)
三台机器,分别开启两个redis服务 192.168.16.129 端口:7001,7002 192.168.16.134 端口:7003,7004 192.168.16.135 端口:7005,7006
- 修改配置文件:
192.168.16.129
# mkdir /mydata/myredis/redis-6.2.5/cluster # cp /mydata/myredis/redis-6.2.5/redis.conf /mydata/myredis/redis-6.2.5/cluster/redis_7001.conf # cp /mydata/myredis/redis-6.2.5/redis.conf /mydata/myredis/redis-6.2.5/cluster/redis_7002.conf # mkdir -p /mydata/myredis/data/cluster/{redis_7001,redis_7002}
配置文件:
# vim /mydata/myredis/redis-6.2.5/cluster/redis_7001.conf bind 192.168.16.129 port 7001 daemonize yes pidfile "/var/run/redis_7001.pid" logfile "/mydata/myredis/redis-6.2.5/cluster/redis_7001.log" dir "/mydata/myredis/data/cluster/redis_7001" # replicaof 192.168.30.129 6379 masterauth 991009 requirepass 991009 appendonly yes cluster-enabled yes cluster-config-file nodes_7001.conf cluster-node-timeout 15000
# vim /mydata/myredis/redis-6.2.5/cluster/redis_7002.conf bind 192.168.16.129 port 7002 daemonize yes pidfile "/var/run/redis_7002.pid" logfile "/mydata/myredis/redis-6.2.5/cluster/redis_7002.log" dir "/mydata/myredis/data/cluster/redis_7002" # replicaof 192.168.30.129 6379 masterauth 991009 requirepass 991009 appendonly yes cluster-enabled yes cluster-config-file nodes_7002.conf cluster-node-timeout 15000
其他两台机器配置与此台机器一致,此处省略掉
- 启动redis服务:
# redis-server /mydata/myredis/redis-6.2.5/cluster/redis_7001.conf # tail -f /mydata/myredis/redis-6.2.5/cluster/redis_7001.log # redis-server /mydata/myredis/redis-6.2.5/cluster/redis_7002.conf # tail -f /mydata/myredis/redis-6.2.5/cluster/redis_7002.log
其他两台机器配置与此台机器一致,此处省略掉
如果redis版本低需要安装ruby,我的版本时redis6.2.5,所以不需要,直接创建集群即可
- 创建集群
/usr/local/bin/redis-cli -a 991009 --cluster create 192.168.16.129:7001 192.168.16.129:7002 192.168.16.134:7003 192.168.16.134:7004 192.168.16.135:7005 192.168.16.135:7006 --cluster-replicas 1 # 下面为提示信息 Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe. >>> Performing hash slots allocation on 6 nodes... Master[0] -> Slots 0 - 5460 Master[1] -> Slots 5461 - 10922 Master[2] -> Slots 10923 - 16383 Adding replica 192.168.16.134:7004 to 192.168.16.129:7001 Adding replica 192.168.16.135:7006 to 192.168.16.134:7003 Adding replica 192.168.16.129:7002 to 192.168.16.135:7005 M: 50db05c2f24fae8115ad624c6d9107fb46cd8857 192.168.16.129:7001 slots:[0-5460] (5461 slots) master S: aa438bb2626b32e9ce18697f5f4be7ddd1d6e604 192.168.16.129:7002 replicates 697736018fe3c260bd13b9de386eada5b51ec41b M: 7e4725f80dcfed83b3bc73b479e15a141ca9a200 192.168.16.134:7003 slots:[5461-10922] (5462 slots) master S: bfdfd791ca76c5a6b9dd468ecbecaa06061c2e27 192.168.16.134:7004 replicates 50db05c2f24fae8115ad624c6d9107fb46cd8857 M: 697736018fe3c260bd13b9de386eada5b51ec41b 192.168.16.135:7005 slots:[10923-16383] (5461 slots) master S: d3fccfa8afb60ed6f97b4ec5d4cea3764eb9690c 192.168.16.135:7006 replicates 7e4725f80dcfed83b3bc73b479e15a141ca9a200 Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join . >>> Performing Cluster Check (using node 192.168.16.129:7001) M: 50db05c2f24fae8115ad624c6d9107fb46cd8857 192.168.16.129:7001 slots:[0-5460] (5461 slots) master 1 additional replica(s) M: 697736018fe3c260bd13b9de386eada5b51ec41b 192.168.16.135:7005 slots:[10923-16383] (5461 slots) master 1 additional replica(s) S: d3fccfa8afb60ed6f97b4ec5d4cea3764eb9690c 192.168.16.135:7006 slots: (0 slots) slave replicates 7e4725f80dcfed83b3bc73b479e15a141ca9a200 S: bfdfd791ca76c5a6b9dd468ecbecaa06061c2e27 192.168.16.134:7004 slots: (0 slots) slave replicates 50db05c2f24fae8115ad624c6d9107fb46cd8857 M: 7e4725f80dcfed83b3bc73b479e15a141ca9a200 192.168.16.134:7003 slots:[5461-10922] (5462 slots) master 1 additional replica(s) S: aa438bb2626b32e9ce18697f5f4be7ddd1d6e604 192.168.16.129:7002 slots: (0 slots) slave replicates 697736018fe3c260bd13b9de386eada5b51ec41b [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered.
自动生成nodes.conf文件:
# ls /mydata/myredis/data/cluster/redis_7001/ # tail /mydata/myredis/data/cluster/redis_7001/nodes-7001.conf
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FZ5xuTuf-1658993567963)(D:\笔记文档\中间件\redis集群图片\微信图片_20211121231958.png)]
集群操作
- 登录集群
# redis-cli -c -h 192.168.16.129 -p 7001 -a 991009 # -c,使用集群方式登录
- 查看集群信息
192.168.16.129:7001> CLUSTER INFO # 集群状态 cluster_state:ok cluster_slots_assigned:16384 cluster_slots_ok:16384 cluster_slots_pfail:0 cluster_slots_fail:0 cluster_known_nodes:6 cluster_size:3 cluster_current_epoch:6 cluster_my_epoch:1 cluster_stats_messages_ping_sent:774 cluster_stats_messages_pong_sent:782 cluster_stats_messages_sent:1556 cluster_stats_messages_ping_received:777 cluster_stats_messages_pong_received:774 cluster_stats_messages_meet_received:5 cluster_stats_messages_received:1556
- 列出节点信息
192.168.16.129:7001> CLUSTER NODES # 列出节点信息 697736018fe3c260bd13b9de386eada5b51ec41b 192.168.16.135:7005@17005 master - 0 1637508397000 5 connected 10923-16383 50db05c2f24fae8115ad624c6d9107fb46cd8857 192.168.16.129:7001@17001 myself,master - 0 1637508395000 1 connected 0-5460 d3fccfa8afb60ed6f97b4ec5d4cea3764eb9690c 192.168.16.135:7006@17006 slave 7e4725f80dcfed83b3bc73b479e15a141ca9a200 0 1637508397000 3 connected bfdfd791ca76c5a6b9dd468ecbecaa06061c2e27 192.168.16.134:7004@17004 slave 50db05c2f24fae8115ad624c6d9107fb46cd8857 0 1637508398015 1 connected 7e4725f80dcfed83b3bc73b479e15a141ca9a200 192.168.16.134:7003@17003 master - 0 1637508395000 3 connected 5461-10922 aa438bb2626b32e9ce18697f5f4be7ddd1d6e604 192.168.16.129:7002@17002 slave 697736018fe3c260bd13b9de386eada5b51ec41b 0 1637508396000 5 connected
此信息与nodes.conf内容相同
- 写入数据测试
192.168.16.129:7001> set key111 aaa -> Redirected to slot [13680] located at 192.168.16.135:7005 OK 192.168.16.135:7005> set key222 bbb -> Redirected to slot [2320] located at 192.168.16.129:7001 OK 192.168.16.129:7001> set key333 ccc -> Redirected to slot [7472] located at 192.168.16.134:7003 OK 192.168.16.134:7003> set key444 ddd -> Redirected to slot [12752] located at 192.168.16.135:7005 OK 192.168.16.135:7005> get key111 "aaa" 192.168.16.135:7005> get key222 -> Redirected to slot [2320] located at 192.168.16.129:7001 "bbb" 192.168.16.129:7001> get key333 -> Redirected to slot [7472] located at 192.168.16.134:7003 "ccc" 192.168.16.134:7003> get key444 -> Redirected to slot [12752] located at 192.168.16.135:7005 "ddd"
由此可以看出redis cluster集群是去中心化的,每个节点都是平等的,连接哪一个节点都可以获取并设置数据。这里的平等指的是master节点,因为slave节点不提供服务,只是对master节点的一个备份。
Cluster集群操作待完善