redis 集群

一、在项目中重新搭建一套读写分离+高可用+多master的redis cluster集群

    1、redis cluster的重要配置

        cluster-enabled <yes/no>

        cluster-config-file <filename>:这是指定一个文件,供cluster模式下的redis实例将集群状态保存在那里,包括集群中其他机器的信息,比如节点的上线和下限,故障转移,不是我们去维护的,给它指定一个文件,让redis自己去维护的

        cluster-node-timeout <milliseconds>:节点存活超时时长,超过一定时长,认为节点宕机,master宕机的话就会触发主备切换,slave宕机就不会提供服务

    2、在三台机器上启动6个redis实例

        (1)在eshop-cache03上部署目录

        /etc/redis(存放redis的配置文件),/var/redis/6379(存放redis的持久化文件)

        (2)编写配置文件

        redis cluster集群,要求至少3个master,去组成一个高可用,健壮的分布式的集群,每个master都建议至少给一个slave,3个master,3个slave,最少的要求

        正式环境下,建议都是说在6台机器上去搭建,至少3台机器

        保证,每个master都跟自己的slave不在同一台机器上,如果是6台自然更好,一个master+一个slave就死了

    3台机器去搭建6个redis实例的redis cluster

        mkdir -p /etc/redis-cluster
        mkdir -p /var/log/redis
        mkdir -p /var/redis/7001

        port 7001
        cluster-enabled yes
        cluster-config-file /etc/redis-cluster/node-7001.conf
        cluster-node-timeout 15000
        daemonize    yes                            
        pidfile        /var/run/redis_7001.pid                         
        dir         /var/redis/7001        
        logfile /var/log/redis/7001.log
        bind 192.168.31.187        
        appendonly yes

        至少要用3个master节点启动,每个master加一个slave节点,先选择6个节点,启动6个实例

        将上面的配置文件,在/etc/redis下放6个,分别为: 7001.conf,7002.conf,7003.conf,7004.conf,7005.conf,7006.conf

        (3)准备生产环境的启动脚本

        在/etc/init.d下,放6个启动脚本,分别为: redis_7001, redis_7002, redis_7003, redis_7004, redis_7005, redis_7006

        每个启动脚本内,都修改对应的端口号

        (4)分别在3台机器上,启动6个redis实例

        将每个配置文件中的slaveof给删除

    3、创建集群

        下面方框内的内容废弃掉

        =======================================================================

        wget https://cache.ruby-lang.org/pub/ruby/2.3/ruby-2.3.1.tar.gz
        tar -zxvf ruby-2.3.1.tar.gz
        ./configure -prefix=/usr/local/ruby
        make && make install
        cd /usr/local/ruby
        cp bin/ruby /usr/local/bin
        cp bin/gem /usr/local/bin

        wget http://rubygems.org/downloads/redis-3.3.0.gem
        gem install -l ./redis-3.3.0.gem
        gem list --check redis gem

        =======================================================================

        yum install -y ruby
        yum install -y rubygems
        gem install redis

        cp /usr/local/redis-3.2.8/src/redis-trib.rb /usr/local/bin

        redis-trib.rb create --replicas 1 192.168.31.187:7001 192.168.31.187:7002 192.168.31.19:7003 192.168.31.19:7004 192.168.31.227:7005 192.168.31.227:7006

        --replicas: 每个master有几个slave

        6台机器,3个master,3个slave,尽量自己让master和slave不在一台机器上

        yes

        redis-trib.rb check 192.168.31.187:7001

    4、读写分离+高可用+多master

        读写分离:每个master都有一个slave
        高可用:master宕机,slave自动被切换过去
        多master:横向扩容支持更大数据量

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

二、对项目的redis cluster实验多master写入、读写分离、高可用性
    
    redis cluster搭建起来了

    redis cluster,提供了多个master,数据可以分布式存储在多个master上; 每个master都带着slave,自动就做读写分离; 每个master如果故障,那么久会自动将slave切换成master,高可用

    redis cluster的基本功能,来测试一下

    1、实验多master写入 -> 海量数据的分布式存储

        你在redis cluster写入数据的时候,其实是你可以将请求发送到任意一个master上去执行

        但是,每个master都会计算这个key对应的CRC16值,然后对16384个hashslot取模,找到key对应的hashslot,找到hashslot对应的master

        如果对应的master就在自己本地的话,set mykey1 v1,mykey1这个key对应的hashslot就在自己本地,那么自己就处理掉了

        但是如果计算出来的hashslot在其他master上,那么就会给客户端返回一个moved error,告诉你,你得到哪个master上去执行这条写入的命令

        什么叫做多master的写入,就是每条数据只能存在于一个master上,不同的master负责存储不同的数据,分布式的数据存储

        100w条数据,5个master,每个master就负责存储20w条数据,分布式数据存储

        大型的java系统架构,还专注在大数据系统架构,分布式,分布式存储,hadoop hdfs,分布式资源调度,hadoop yarn,分布式计算,hadoop mapreduce/hive

        分布式的nosql数据库,hbase,分布式的协调,zookeeper,分布式通用计算引擎,spark,分布式的实时计算引擎,storm

        如果你要处理海量数据,就涉及到了一个名词,叫做大数据,只要涉及到大数据,那么其实就会涉及到分布式

        redis cluster,分布式

    
    2、实验不同master各自的slave读取 -> 读写分离

        在这个redis cluster中,如果你要在slave读取数据,那么需要带上readonly指令,get mykey1

        redis-cli -c启动,就会自动进行各种底层的重定向的操作

        实验redis cluster的读写分离的时候,会发现有一定的限制性,默认情况下,redis cluster的核心的理念,主要是用slave做高可用的,每个master挂一两个slave,主要是做数据的热备,还有master故障时的主备切换,实现高可用的

        redis cluster默认是不支持slave节点读或者写的,跟我们手动基于replication搭建的主从架构不一样的

        slave node,readonly,get,这个时候才能在slave node进行读取

        redis cluster,主从架构是出来,读写分离,复杂了点,也可以做,jedis客户端,对redis cluster的读写分离支持不太好的

        默认的话就是读和写都到master上去执行的

        如果你要让最流行的jedis做redis cluster的读写分离的访问,那可能还得自己修改一点jedis的源码,成本比较高

        要不然你就是自己基于jedis,封装一下,自己做一个redis cluster的读写分离的访问api

        核心的思路,就是说,redis cluster的时候,就没有所谓的读写分离的概念了

        读写分离,是为了什么,主要是因为要建立一主多从的架构,才能横向任意扩展slave node去支撑更大的读吞吐量

        redis cluster的架构下,实际上本身master就是可以任意扩展的,你如果要支撑更大的读吞吐量,或者写吞吐量,或者数据量,都可以直接对master进行横向扩展就可以了

        也可以实现支撑更高的读吞吐的效果


    3、实验自动故障切换 -> 高可用性

        redis-trib.rb check 192.168.31.187:7001

        比如把master1,187:7001,杀掉,看看它对应的19:7004能不能自动切换成master,可以自动切换

        切换成master后的19:7004,可以直接读取数据

        再试着把187:7001给重新启动,恢复过来,自动作为slave挂载到了19:7004上面去

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

三、redis cluster通过master水平扩容来支撑更高的读写吞吐+海量数据

    redis是怎么扩容的

    1、加入新master

        mkdir -p /var/redis/7007

        port 7007
        cluster-enabled yes
        cluster-config-file /etc/redis-cluster/node-7007.conf
        cluster-node-timeout 15000
        daemonize    yes                            
        pidfile        /var/run/redis_7007.pid                         
        dir         /var/redis/7007        
        logfile /var/log/redis/7007.log
        bind 192.168.31.227        
        appendonly yes

        搞一个7007.conf,再搞一个redis_7007启动脚本

        手动启动一个新的redis实例,在7007端口上

        redis-trib.rb add-node 192.168.31.227:7007 192.168.31.187:7001

        redis-trib.rb check 192.168.31.187:7001

        连接到新的redis实例上,cluster nodes,确认自己是否加入了集群,作为了一个新的master

    2、reshard一些数据过去

        resharding的意思就是把一部分hash slot从一些node上迁移到另外一些node上

        redis-trib.rb reshard 192.168.31.187:7001

        要把之前3个master上,总共4096个hashslot迁移到新的第四个master上去

        How many slots do you want to move (from 1 to 16384)?

        1000

        3、添加node作为slave

        eshop-cache03

        mkdir -p /var/redis/7008

        port 7008
        cluster-enabled yes
        cluster-config-file /etc/redis-cluster/node-7008.conf
        cluster-node-timeout 15000
        daemonize    yes                            
        pidfile        /var/run/redis_7008.pid                         
        dir         /var/redis/7008        
        logfile /var/log/redis/7008.log
        bind 192.168.31.227        
        appendonly yes

        redis-trib.rb add-node --slave --master-id 28927912ea0d59f6b790a50cf606602a5ee48108 192.168.31.227:7008 192.168.31.187:7001

    4、删除node

        先用resharding将数据都移除到其他节点,确保node为空之后,才能执行remove操作

        redis-trib.rb del-node 192.168.31.187:7001 bd5a40a6ddccbd46a0f4a2208eb25d2453c2a8db

        2个是1365,1个是1366

        当你清空了一个master的hashslot时,redis cluster就会自动将其slave挂载到其他master上去

        这个时候就只要删除掉master就可以了

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

四、redis cluster的自动化slave迁移实现更强的高可用架构的部署方案

    slave的自动迁移

    比如现在有10个master,每个有1个slave,然后新增了3个slave作为冗余,有的master就有2个slave了,有的master出现了salve冗余

    如果某个master的slave挂了,那么redis cluster会自动迁移一个冗余的slave给那个master

    只要多加一些冗余的slave就可以了

    为了避免的场景,就是说,如果你每个master只有一个slave,万一说一个slave死了,然后很快,master也死了,那可用性还是降低了

    但是如果你给整个集群挂载了一些冗余slave,那么某个master的slave死了,冗余的slave会被自动迁移过去,作为master的新slave,此时即使那个master也死了

    还是有一个slave会切换成master的

    之前有一个master是有冗余slave的,直接让其他master其中的一个slave死掉,然后看有冗余slave会不会自动挂载到那个maste

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

五、redis cluster的核心原理分析:gossip通信、jedis smart定位、主备切换

    一、节点间的内部通信机制
    
        1、基础通信原理

            (1)redis cluster节点间采取gossip协议进行通信

                跟集中式不同,不是将集群元数据(节点信息,故障,等等)集中存储在某个节点上,而是互相之间不断通信,保持整个集群所有节点的数据是完整的

                维护集群的元数据用得,集中式,一种叫做gossip

                集中式:好处在于,元数据的更新和读取,时效性非常好,一旦元数据出现了变更,立即就更新到集中式的存储中,其他节点读取的时候立即就可以感知到; 不好在于,所有的元数据的跟新压力全部集中在一个地方,可能会导致元数据的存储有压力

                gossip:好处在于,元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到所有节点上去更新,有一定的延时,降低了压力; 缺点,元数据更新有延时,可能导致集群的一些操作会有一些滞后

                我们刚才做reshard,去做另外一个操作,会发现说,configuration error,达成一致

            (2)10000端口

                每个节点都有一个专门用于节点间通信的端口,就是自己提供服务的端口号+10000,比如7001,那么用于节点间通信的就是17001端口

                每隔节点每隔一段时间都会往另外几个节点发送ping消息,同时其他几点接收到ping之后返回pong

            (3)交换的信息

                故障信息,节点的增加和移除,hash slot信息,等等

        2、gossip协议

            gossip协议包含多种消息,包括ping,pong,meet,fail,等等

            meet: 某个节点发送meet给新加入的节点,让新节点加入集群中,然后新节点就会开始与其他节点进行通信

            redis-trib.rb add-node

            其实内部就是发送了一个gossip meet消息,给新加入的节点,通知那个节点去加入我们的集群

            ping: 每个节点都会频繁给其他节点发送ping,其中包含自己的状态还有自己维护的集群元数据,互相通过ping交换元数据

            每个节点每秒都会频繁发送ping给其他的集群,ping,频繁的互相之间交换数据,互相进行元数据的更新

            pong: 返回ping和meet,包含自己的状态和其他信息,也可以用于信息广播和更新

            fail: 某个节点判断另一个节点fail之后,就发送fail给其他节点,通知其他节点,指定的节点宕机了

        3、ping消息深入

            ping很频繁,而且要携带一些元数据,所以可能会加重网络负担

            每个节点每秒会执行10次ping,每次会选择5个最久没有通信的其他节点

            当然如果发现某个节点通信延时达到了cluster_node_timeout / 2,那么立即发送ping,避免数据交换延时过长,落后的时间太长了

            比如说,两个节点之间都10分钟没有交换数据了,那么整个集群处于严重的元数据不一致的情况,就会有问题

            所以cluster_node_timeout可以调节,如果调节比较大,那么会降低发送的频率

            每次ping,一个是带上自己节点的信息,还有就是带上1/10其他节点的信息,发送出去,进行数据交换

            至少包含3个其他节点的信息,最多包含总节点-2个其他节点的信息

    -------------------------------------------------------------------------------------------------------

    二、面向集群的jedis内部实现原理

        开发,jedis,redis的java client客户端,redis cluster,jedis cluster api

        jedis cluster api与redis cluster集群交互的一些基本原理

        1、基于重定向的客户端

            redis-cli -c,自动重定向

            (1)请求重定向

                客户端可能会挑选任意一个redis实例去发送命令,每个redis实例接收到命令,都会计算key对应的hash slot

                如果在本地就在本地处理,否则返回moved给客户端,让客户端进行重定向

                cluster keyslot mykey,可以查看一个key对应的hash slot是什么

                用redis-cli的时候,可以加入-c参数,支持自动的请求重定向,redis-cli接收到moved之后,会自动重定向到对应的节点执行命令

            (2)计算hash slot

                计算hash slot的算法,就是根据key计算CRC16值,然后对16384取模,拿到对应的hash slot

                用hash tag可以手动指定key对应的slot,同一个hash tag下的key,都会在一个hash slot中,比如set mykey1:{100}和set mykey2:{100}

            (3)hash slot查找

                节点间通过gossip协议进行数据交换,就知道每个hash slot在哪个节点上

        2、smart jedis

            (1)什么是smart jedis

                基于重定向的客户端,很消耗网络IO,因为大部分情况下,可能都会出现一次请求重定向,才能找到正确的节点

                所以大部分的客户端,比如java redis客户端,就是jedis,都是smart的

                本地维护一份hashslot -> node的映射表,缓存,大部分情况下,直接走本地缓存就可以找到hashslot -> node,不需要通过节点进行moved重定向

            (2)JedisCluster的工作原理

                在JedisCluster初始化的时候,就会随机选择一个node,初始化hashslot -> node映射表,同时为每个节点创建一个JedisPool连接池

                每次基于JedisCluster执行操作,首先JedisCluster都会在本地计算key的hashslot,然后在本地映射表找到对应的节点

                如果那个node正好还是持有那个hashslot,那么就ok; 如果说进行了reshard这样的操作,可能hashslot已经不在那个node上了,就会返回moved

                如果JedisCluter API发现对应的节点返回moved,那么利用该节点的元数据,更新本地的hashslot -> node映射表缓存

                重复上面几个步骤,直到找到对应的节点,如果重试超过5次,那么就报错,JedisClusterMaxRedirectionException

                jedis老版本,可能会出现在集群某个节点故障还没完成自动切换恢复时,频繁更新hash slot,频繁ping节点检查活跃,导致大量网络IO开销

                jedis最新版本,对于这些过度的hash slot更新和ping,都进行了优化,避免了类似问题

            (3)hashslot迁移和ask重定向

                如果hash slot正在迁移,那么会返回ask重定向给jedis

                jedis接收到ask重定向之后,会重新定位到目标节点去执行,但是因为ask发生在hash slot迁移过程中,所以JedisCluster API收到ask是不会更新hashslot本地缓存

                已经可以确定说,hashslot已经迁移完了,moved是会更新本地hashslot->node映射表缓存的

    -------------------------------------------------------------------------------------------------------

    三、高可用性与主备切换原理

        redis cluster的高可用的原理,几乎跟哨兵是类似的

        1、判断节点宕机

            如果一个节点认为另外一个节点宕机,那么就是pfail,主观宕机

            如果多个节点都认为另外一个节点宕机了,那么就是fail,客观宕机,跟哨兵的原理几乎一样,sdown,odown

            在cluster-node-timeout内,某个节点一直没有返回pong,那么就被认为pfail

            如果一个节点认为某个节点pfail了,那么会在gossip ping消息中,ping给其他节点,如果超过半数的节点都认为pfail了,那么就会变成fail

        2、从节点过滤

            对宕机的master node,从其所有的slave node中,选择一个切换成master node

            检查每个slave node与master node断开连接的时间,如果超过了cluster-node-timeout * cluster-slave-validity-factor,那么就没有资格切换成master

            这个也是跟哨兵是一样的,从节点超时过滤的步骤

        3、从节点选举

            哨兵:对所有从节点进行排序,slave priority,offset,run id

            每个从节点,都根据自己对master复制数据的offset,来设置一个选举时间,offset越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举

            所有的master node开始slave选举投票,给要进行选举的slave进行投票,如果大部分master node(N/2 + 1)都投票给了某个从节点,那么选举通过,那个从节点可以切换成master

            从节点执行主备切换,从节点切换为主节点

        4、与哨兵比较

            整个流程跟哨兵相比,非常类似,所以说,redis cluster功能强大,直接集成了replication和sentinal的功能


            没有办法去给大家深入讲解redis底层的设计的细节,核心原理和设计的细节,那个除非单独开一门课,redis底层原理深度剖析,redis源码

            对于咱们这个架构课来说,主要关注的是架构,不是底层的细节,对于架构来说,核心的原理的基本思路,是要梳理清晰的

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

六、redis在实践中的一些常见问题以及优化思路

    1、fork耗时导致高并发请求延时

        RDB和AOF的时候,其实会有生成RDB快照,AOF rewrite,耗费磁盘IO的过程,主进程fork子进程

        fork的时候,子进程是需要拷贝父进程的空间内存页表的,也是会耗费一定的时间的

        一般来说,如果父进程内存有1个G的数据,那么fork可能会耗费在20ms左右,如果是10G~30G,那么就会耗费20 * 10,甚至20 * 30,也就是几百毫秒的时间

        info stats中的latest_fork_usec,可以看到最近一次form的时长

        redis单机QPS一般在几万,fork可能一下子就会拖慢几万条操作的请求时长,从几毫秒变成1秒

        优化思路

        fork耗时跟redis主进程的内存有关系,一般控制redis的内存在10GB以内,slave -> master,全量复制

    2、AOF的阻塞问题

        redis将数据写入AOF缓冲区,单独开一个现场做fsync操作,每秒一次

        但是redis主线程会检查两次fsync的时间,如果距离上次fsync时间超过了2秒,那么写请求就会阻塞

        everysec,最多丢失2秒的数据

        一旦fsync超过2秒的延时,整个redis就被拖慢

        优化思路

        优化硬盘写入速度,建议采用SSD,不要用普通的机械硬盘,SSD,大幅度提升磁盘读写的速度

    3、主从复制延迟问题

        主从复制可能会超时严重,这个时候需要良好的监控和报警机制

        在info replication中,可以看到master和slave复制的offset,做一个差值就可以看到对应的延迟量

        如果延迟过多,那么就进行报警

    4、主从复制风暴问题

        如果一下子让多个slave从master去执行全量复制,一份大的rdb同时发送到多个slave,会导致网络带宽被严重占用

        如果一个master真的要挂载多个slave,那尽量用树状结构,不要用星型结构

    5、vm.overcommit_memory

        0: 检查有没有足够内存,没有的话申请内存失败
        1: 允许使用内存直到用完为止
        2: 内存地址空间不能超过swap + 50%

        如果是0的话,可能导致类似fork等操作执行失败,申请不到足够的内存空间

        cat /proc/sys/vm/overcommit_memory
        echo "vm.overcommit_memory=1" >> /etc/sysctl.conf
        sysctl vm.overcommit_memory=1

    6、swapiness

        cat /proc/version,查看linux内核版本

        如果linux内核版本<3.5,那么swapiness设置为0,这样系统宁愿swap也不会oom killer(杀掉进程)
        如果linux内核版本>=3.5,那么swapiness设置为1,这样系统宁愿swap也不会oom killer

        保证redis不会被杀掉

        echo 0 > /proc/sys/vm/swappiness
        echo vm.swapiness=0 >> /etc/sysctl.conf

    7、最大打开文件句柄

        ulimit -n 10032 10032

        自己去上网搜一下,不同的操作系统,版本,设置的方式都不太一样

    8、tcp backlog

        cat /proc/sys/net/core/somaxconn
        echo 511 > /proc/sys/net/core/somaxconn

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值