codis3.2安装配置详细操作

1.codis简介

Codis 是一个分布式 Redis 解决方案, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有显著区别 (不支持的命令列表), 上层应用可以像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 Redis 服务。
codis集群架构图如下:

1.1 codis3.2的改进与功能说明

  • 最新 release 版本为 codis-3.2,codis-server 基于 redis-3.2.8
  • 支持 slot 同步迁移、异步迁移和并发迁移,对 key 大小无任何限制,迁移性能大幅度提升
  • 相比 2.0:重构了整个集群组件通信方式,codis-proxy 与 zookeeper 实现了解耦,废弃了codis-config 等
  • 元数据存储支持 etcd/zookeeper/filesystem 等,可自行扩展支持新的存储,集群正常运行期间,即便元存储故障也不再影响 codis 集群,大大提升 codis-proxy 稳定性
  • 对 codis-proxy 进行了大量性能优化,通过控制GC频率、减少对象创建、内存预分配、引入 cgo、jemalloc 等,使其吞吐还是延迟,都已达到 codis 项目中最佳
  • proxy 实现 select 命令,支持多 DB
  • proxy 支持读写分离、优先读同 IP/同 DC 下副本功能
  • 基于 redis-sentinel 实现主备自动切换
  • 实现动态 pipeline 缓存区(减少内存分配以及所引起的 GC 问题)
  • proxy 支持通过 HTTP 请求实时获取 runtime metrics,便于监控、运维
  • 支持通过 influxdb 和 statsd 采集 proxy metrics
  • slot auto rebalance 算法从 2.0 的基于 max memory policy 变更成基于 group 下 slot 数量
  • 提供了更加友好的 dashboard 和 fe 界面,新增了很多按钮、跳转链接、错误状态等,有利于快速发现、处理集群故障
  • 新增 SLOTSSCAN 指令,便于获取集群各个 slot 下的所有 key
  • codis-proxy 与 codis-dashbaord 支持 docker 部署

1.2 codis的组件及作用

  • Codis Server:基于 redis-3.2.8 分支开发。增加了额外的数据结构,以支持 slot 有关的操作以及数据迁移指令。具体的修改可以参考文档 redis 的修改。
  •  
  • Codis Proxy:客户端连接的 Redis 代理服务, 实现了 Redis 协议。 除部分命令不支持以外(不支持的命令列表),表现的和原生的 Redis 没有区别(就像 Twemproxy)。
  •  
  • 对于同一个业务集群而言,可以同时部署多个 codis-proxy 实例;
  • 不同 codis-proxy 之间由 codis-dashboard 保证状态同步。
  • Codis Dashboard:集群管理工具,支持 codis-proxy、codis-server 的添加、删除,以及据迁移等操作。在集群状态发生改变时,codis-dashboard 维护集群下所有 codis-proxy 的状态的一致性。
  •  
  • 对于同一个业务集群而言,同一个时刻 codis-dashboard 只能有 0个或者1个;
  • 所有对集群的修改都必须通过 codis-dashboard 完成。
  • Codis Admin:集群管理的命令行工具。
  •  
  • 可用于控制 codis-proxy、codis-dashboard 状态以及访问外部存储。
  • Codis FE:集群管理界面。
  •  
  • 多个集群实例共享可以共享同一个前端展示页面;
  • 通过配置文件管理后端 codis-dashboard 列表,配置文件可自动更新。
  • Storage:为集群状态提供外部存储。
  •  
  • 提供 Namespace 概念,不同集群的会按照不同 product name 进行组织;
  • 目前仅提供了 Zookeeper、Etcd、Fs 三种实现,但是提供了抽象的 interface 可自行扩展。

3.zookeeper介绍

3.1 zookeeper简介

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,它包含一个简单的原语集,分布式应用程序可以基于它实现同步服务,配置维护和命名服务等。Zookeeper是hadoop的一个子项目,其发展历程无需赘述。在分布式应用中,由于工程师不能很好地使用锁机制,以及基于消息的协调机制不适合在某些应用中使用,因此需要有一种可靠的、可扩展的、分布式的、可配置的协调机制来统一系统的状态。
ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
ZooKeeper包含一个简单的原语集,提供Java和C的接口。

3.2 zookeeper在codis集群中的作用

由于之前没有接触过zookeeper,只知道这是个集群管理的工具,所以即使配置完之后对于zookeeper在集群中的作用不是很清晰,后来又咨询了QQ群里的一些朋友,才大概了解zookeeper在集群中的作用。下面说的有不对之处,敬请谅解。
zookeeper启动后开启了2181,2888,3888的端口,而zkCli.sh通过2181端口获取zookeeper集群中受控节点的状态,java程序可以通过2181端口确定后端proxy的状态,进而去访问存活的proxy。所以有了zookeeper之后,可以不再使用ha工具(haproxy,lvs,nginx)等,zookeeper会管理好后端的proxy集群。

4.实验之前

4.1 环境说明

系统环境和软件版本号:
项目    参数
系统版本  CentOs 6.9 64位
JDK版本    jdk 1.8.0_111 64位
zookeeper版本3.4.8
go版本    go 1.7.6 linux/amd64
codis版本    codis 3.2

4.2 各主机配置

试验中使用3台主机,配置为1核1G虚拟机,下面是软件配置说明:
IP地址主机名zookeeper端口dashboard端口proxy端口fe端口redis端口snetinel端口
192.168.0.146node0112181,2888,38881808019000    80806379,6380
192.168.0.178node0122181,2888,388819000    6379,6380
192.168.0.102node0132181,2888,3888190006379,6380

4.3 主机环境配置

4.3.1 主机名解析

在各主机/etc/hosts中配置主机名解析,在原有的文件下面追加以下配置:
以146主机为例

 
    
  1. #vim /etc/hosts
  2. 127.0.0.1     node011
  3. 192.168.0.146 node011
  4. 192.168.0.178 node012
  5. 192.168.0.102 node013

4.3.2 安全策略

在安装的过程中,由于部分安装需要使用浏览器访问相关端口,所以安装之前selinux、iptables的安全策略要做好,开放相应的端口,防止访问错误。
selinux状态与设置
getenforce:获取现在的selinux的状态,确认状态为permissive或disabled
setenforce 0|1:临时设置selinux的状态,0为permissive
设置selinux状态:修改/etc/selinux/config即可,重启后生效
 
iptables状态与设置:
service iptables status:查看状态
iptaqbles -vnL:查看现在的iptables规则
开放相应端口的iptables命令可以在网上搜索,相关文章比较多。

4.3.3 安装依赖包

 
     
  1. yum -y install gcc glibc autoconf net-tools automake git

5.软件环境配置

5.1 配置jdk环境

下载jdk8相关版本的二进制包到本地:
 
     
  1. tar -C /usr/local/ -xvf jdk-8u111-linux-x64.tar.gz 
  2. cd /usr/local/
  3. mv jdk1.8.0_111 jdk8
配置jdk环境变量
 
     
  1. #vim /etc/profile
追加如下内容:
 
     
  1. export JAVA_HOME=/usr/local/jdk8
  2. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/jre/lib/rt.jar
  3. export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
使配置生效:
 
     
  1. source /etc/profile
验证配置:
 
     
  1. # java -version
  2. java version "1.8.0_111"
  3. Java(TM) SE Runtime Environment (build 1.8.0_111-b14)
  4. Java HotSpot(TM) 64-Bit Server VM (build 25.111-b14, mixed mode)
  5. # which java
  6. /usr/local/jdk8/bin/java

5.2 配置go环境

配置go环境的时候,不要直接用yum install golang安装配置go的环境,要下载golang安装包进行配置。
 
     
  1. wget https://storage.googleapis.com/golang/go1.7.6.linux-amd64.tar.gz
上面的地址亲测可用。
 
     
  1. tar -C /usr/local/ -xvf go1.7.6.linux-amd64.tar.gz
配置go环境的环境变量:
 
     
  1. vim /etc/profile
追加如下内容:
 
     
  1. export GOPATH=/home/codis
  2. export GOROOT=/usr/local/go
  3. export GOBIN=$GOROOT/bin
  4. export GOPKG=$GOROOT/pkg/tool/linux_amd64
  5. export GOARCH=amd64
  6. export GOOS=linux
  7. export PATH=.:$PATH:$GOBIN:$GOPKG:$GOPATH/bin
注意:GOPATH和GOROOT是不一样的,千万不要配置成一样的。GOPATH是放置codis项目的主目录,GOROOT是go的主目录。
创建GOPATH目录:
 
     
  1. mkdir -pv /home/codis/{bin,conf,logs,data,run,src}
使环境变量生效:
 
     
  1. source /etc/profile
验证:

 
    
  1. #go version
  2. go version go1.7.6 linux/amd64
由于编译codis需要godep,下面配置godep:
 
    
  1. mkdir -p $GOPATH/src/github.com/tools #新建工程目录
  2. cd $GOPATH/src/github.com/tools
  3. go get -u github.com/tools/godep #下载godep
  4. cd godep
  5. go install ./ #安装godep
验证配置是否生效
 
     
  1. #which godep
  2. /usr/local/go/bin/godep
有的博客里面介绍,安装好godep之后,godep会在$GOPATH/bin下面,我这个在$GOROOT下面了,不清楚什么情况,不过并不会影响下面的codis编译安装。

6. zookeeper配置

6.1 下载zookeeper到本地

 
     
  1. wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz
  2. tar -C /usr/local/ -xvf zookeeper-3.4.6.tar.gz
  3. cd /usr/local
  4. mv zookeeper-3.4.6 zookeeper

6.2 配置zookeeper

 
      
  1. cd /usr/local/zookeeper/conf
  2. cp cp zoo_sample.cfg zoo.cfg
编辑zoo.cfg,编辑好之后内容如下:
 
     
  1. tickTime=2000
  2. initLimit=10
  3. syncLimit=5
  4. dataDir=/usr/local/zookeeper/data
  5. dataLogDir=/usr/local/zookeeper/logs
  6. clientPort=2181
  7. maxClientCnxns=60
  8. server.1=192.168.0.146:2888:3888
  9. server.2=192.168.0.178:2888:3888
  10. server.3=192.168.0.102:2888:3888
创建datadir和datalogdir:
 
      
  1. mkdir -pv /usr/local/zookeeper/{data,logs}
上面的zoo.cfg和创建文件夹操作,在三个主机上是完全相同的,在三个主机上都要操作。
参数说明:
  • tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。
  • dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里。
  • clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。
  • initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒
  • syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒
  • server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号。
zookeeper集群配置配置除了要配置zoo.cfg以外,还需要增加一个文件myid文件(节点编号文件),并且每个主机的不同, 如下:
192.168.0.146主机:
 
     
  1. echo "1" > /usr/local/zookeeper/data/myid
192.168.0.178主机:
 
     
  1. echo "2" > /usr/local/zookeeper/data/myid
192.168.0.102主机:
 
     
  1. echo "3" > /usr/local/zookeeper/data/myid
完成如上的配置之后,就可以启动zookeeper集群了。

6.3 启动zookeeper集群

在各个主机上启动zookeeper
 
     
  1. cd /usr/local/zookeeper/bin
  2. ./zkServer.sh start
 
      
  1. #启动无异常会显示如下内容
  2. ZooKeeper JMX enabled by default
  3. Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
  4. Starting zookeeper ... STARTED
查看zookeeper集群各节点的状态:
 
     
  1. ./zkServer.sh status
显示如下:
 
     
  1. ./zkServer.sh status
  2. ZooKeeper JMX enabled by default
  3. Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
  4. Mode: follower
Mode显示会有两种结果:follower(从节点)和leader(主节点)
使用netstat -tnulp|grep java查看各个主机的端口状态,可以看到,主节点比从节点多启动了一个端口2888,这个端口 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口。
当主节点的zookeeper服务失效之后,其它节点会自动选出一个主节点,这个延迟时间非常小,zookeeper的机制保证并不会影响业务的正常运行。当主节点被重新选出来之后,新的主节点开启2888端口,并且原来的主机点恢复并不会发生主节点抢占。

7.安装codis

下面是配置codis集群之前的安装工作,需要在3台主机上进行相同的操作。

7.1 下载codis

Codis 源代码需要下载$GOPATH/src/github.com/CodisLabs/codis。
 
     
  1. mkdir -pv $GOPATH/src/github.com/CodisLabs
  2. cd $GOPATH/src/github.com/CodisLabs 
  3. git clone https://github.com/CodisLabs/codis.git -b release3.2

7.2 编译安装codis

直接通过 make 进行编译。
 
     
  1. cd $GOPATH/src/github.com/CodisLabs/codis
  2. make
通过make编译安装会看到如下内容:
 
     
  1. make -j -C extern/redis-3.2.8/
  2. ... ...
  3. go build -i -o bin/codis-dashboard ./cmd/dashboard
  4. go build -i -o bin/codis-proxy ./cmd/proxy
  5. go build -i -o bin/codis-admin ./cmd/admin
  6. go build -i -o bin/codis-fe ./cmd/fe
编译安装中间没有报错信息,且编译安装完成后,可以看到bin目录下的文件如下:
 
     
  1. # ls -l ./bin
  2. 总用量 81168
  3. drwxr-xr-x. 4 root root 4096 7 28 11:24 assets #codis-fe前端界面展示文件夹
  4. -rwxr-xr-x. 1 root root 15710142 7 28 11:24 codis-admin
  5. -rwxr-xr-x. 1 root root 16978319 7 28 11:24 codis-dashboard
  6. -rwxr-xr-x. 1 root root 15805815 7 28 11:24 codis-fe
  7. -rwxr-xr-x. 1 root root 8730159 7 28 11:24 codis-ha
  8. -rwxr-xr-x. 1 root root 10271436 7 28 11:24 codis-proxy
  9. -rwxr-xr-x. 1 root root 6312957 7 28 11:24 codis-server
  10. -rwxr-xr-x. 1 root root 4588203 7 28 11:24 redis-benchmark
  11. -rwxr-xr-x. 1 root root 4690237 7 28 11:24 redis-cli
  12. -rw-r--r--. 1 root root 148 7 28 11:24 version
查看版本信息:
 
     
  1. # cat bin/version
  2. version = 2017-07-27 11:11:41 +0800 @3e69191beb07821ad5f948986ac02ce4330d0624 @3.2.0-9-g3e69191
  3. compile = 2017-07-26 11:35:02 +0800 by go version go1.7.6 linux/amd64
可以看到,编译时间是7.27号,codis版本是3.2.0。

7.3 配置之前的准备

配置之前需要先做一些准备工作,以方便接下来的配置。
先确认$GOPATH文件夹下面的子文件夹:
 
     
  1. drwxr-xr-x 3 root root 4096 7 29 17:33 bin #存放各种可执行文件
  2. drwxr-xr-x 2 root root 4096 7 29 17:05 conf #存放配置文件
  3. drwxr-xr-x 4 root root 4096 7 28 15:58 data #这个存放redis的缓存数据
  4. drwxr-xr-x 2 root root 4096 7 26 10:51 log
  5. drwxr-xr-x 3 root root 4096 7 28 17:43 logs #存放各组件的日志
  6. drwxr-xr-x 3 root root 4096 7 26 10:57 pkg #编译后自动生成的
  7. drwxr-xr-x 2 root root 4096 7 29 17:35 run #redis-pid文件路径
  8. drwxr-xr-x 3 root root 4096 7 26 10:57 src #安装包路径
如果没有就先创建:
 
     
  1. mkdir -pv /home/codis/{bin,conf,data,logs,run}
  2. mkdir -pv /home/codis/data/{6379,6380}
然后把$GOPATH/src/github.com/CodisLabs/codis/bin下面的文件全部递归复制到$GOPATH/bin下面,注意 assets文件夹一定要递归复制过来,否则codis-fe无法启动。
 
     
  1. cp -r $GOPATH/src/github.com/CodisLabs/codis/bin/* $GOPATH/bin/

8.配置codis集群

下面开始配置codis集群,codis集群中的组件比较多,需要一个一个配置,千万不能乱了顺序,否则很有可能配置错误。

8.1 配置codis-serevr和sentinel

codis3.2版本中,codis-sever就是基于 redis-3.2.8做了一些改动,我们在每个主机上要配置两个redis(一主6379一从6380),3个sentinel(26379,36380,46380 )做主从切换。

8.1.1 配置redis.conf(主)

在/home/codis/conf文件夹下配置redis6379.conf文件。
配置详情如下:
 
     
  1. daemonize yes
  2. pidfile "/home/codis/run/redis_6379.pid"
  3. port 6379
  4. tcp-backlog 511
  5. bind 192.168.0.125
  6. timeout 0
  7. tcp-keepalive 0
  8. loglevel notice
  9. logfile "/home/codis/logs/redis6379.log"
  10. databases 16
  11. stop-writes-on-bgsave-error yes
  12. rdbcompression yes
  13. rdbchecksum yes
  14. dbfilename "dump6379.rdb"
  15. dir "/home/codis/data/6379"
  16. masterauth "codispass"
  17. slave-serve-stale-data yes
  18. slave-read-only yes
  19. repl-disable-tcp-nodelay no
  20. slave-priority 100
  21. requirepass "codispass"
  22. appendonly no
  23. appendfilename "appendonly.aof"
  24. appendfsync everysec
  25. no-appendfsync-on-rewrite no
  26. auto-aof-rewrite-percentage 100
  27. auto-aof-rewrite-min-size 64mb
  28. lua-time-limit 5000
  29. slowlog-log-slower-than 10000
  30. slowlog-max-len 128
  31. notify-keyspace-events ""
  32. hash-max-ziplist-entries 512
  33. hash-max-ziplist-value 64
  34. list-max-ziplist-entries 512
  35. list-max-ziplist-value 64
  36. set-max-intset-entries 512
  37. zset-max-ziplist-entries 128
  38. zset-max-ziplist-value 64
  39. activerehashing yes
  40. client-output-buffer-limit normal 0 0 0
  41. client-output-buffer-limit slave 256mb 64mb 60
  42. client-output-buffer-limit pubsub 32mb 8mb 60
  43. hz 10
  44. aof-rewrite-incremental-fsync yes

8.1.2 配置redis.conf(从)

配置redis从的配置文件,可以把redis6379.conf的复制一下,然后做一些修改即可。
主要修改,把6379改为6380,然后还有配置slaveof。
 
     
  1. pidfile "/home/codis/run/redis_6380.pid"
  2. port 6380
  3. logfile "/home/codis/logs/redis6380.log"
  4. dbfilename "dump6380.rdb"
  5. dir "/home/codis/data/6380"
  6. #
  7. slaveof 192.168.0.125 6379
上面的参数主要还是沿用默认配置,后期要做优化的话,有一些参数肯定要做更改。

8.1.3 配置sentinel.conf

sentinel26379.conf的配置详情如下:
 
     
  1. daemonize yes
  2. port 26379
  3. bind 192.168.0.125
  4. dir "/tmp"
  5. sentinel monitor mymaster 192.168.0.125 6379 2
  6. sentinel notification-script mymaster /home/codis/conf/sentinel-notify.sh
  7. sentinel client-reconfig-script mymaster /home/codis/conf/sentinel-failover.sh
  8. sentinel auth-pass mymaster codispass
  9. logfile "/home/codis/logs/redis-sentinel.log"
参数配置说明:
daemonize yes: 以后台进程模式运行。
port 26379: Sentinel实例之间的通讯端口,该端口号默认为26379。
bind 192.168.0.125: Sentinel默认会绑定到127.0.0.1,这里要在多台机器间通信,我们将它绑定到主机IP上。
sentinel monitor redis-master 192.168.0.125 6379 2
Sentinel去监视一个名为redis-master的主服务器,这个主服务器的IP地址为192.168. 0.125 ,端口号为6379。将这个主服务器判断为失效至少需要2个Sentinel同意,一般设置为N/2+1(N为Sentinel总数)。只要同意Sentinel的数量不达标,自动故障迁移就不会执行。可以设置为1,但是有风险。 不过要注意,无论你设置要多少个Sentinel同意才能判断一个服务器失效, 一个Sentinel都需要获得系统中多数Sentinel的支持,才能发起一次自动故障迁移,并预留一个给定的配置纪元。(configuration Epoch ,一个配置纪元就是一个新主服务器配置的版本号)。
sentinel down-after-milliseconds redis-master 5000
down-after-milliseconds选项指定了Sentinel认为服务器已经断线所需的毫秒数。如果服务器在给定的毫秒数之内,没有返回Sentinel发送的PING命令的回复,或者返回一个错误,那么Sentinel将这个服务器标记为主观下线(subjectively down,简称SDOWN)。 不过只有一个Sentinel将服务器标记为主观下线并不一定会引起服务器的自动故障迁移,只有在足够数量的Sentinel都将一个服务器标记为主观下线之后,服务器才会被标记为客观下线(objectively down,简称ODOWN), 这时自动故障迁移才会执行。将服务器标记为客观下线所需的Sentinel数量由对主服务器的配置(sentinel monitor参数)决定。
sentinel failover-timeout redis-master 180000
如果在多少毫秒内没有把宕掉的那台Master恢复,那Sentinel认为这是一次真正的宕机。在下一次选取时排除该宕掉的Master作为可用的节点,然后等待一定的设定值的毫秒数后再来探测该节点是否恢复,如果恢复就把它作为一台Slave加入Sentinel监测节点群,并在下一次切换时为他分配一个”选取号”。
 
sentinel parallel-syncs redis-master 2
parallel-syncs选项指定了在执行故障转移时,最多可以有多少个从服务器同时对新的主服务器进行同步。这个数字越小,完成故障转移所需的时间就越长。
 
如果从服务器被设置为允许使用过期数据集(slave-serve-stale-data选项), 那么你可能不希望所有从服务器都在同一时间向新的主服务器发送同步请求。因为尽管复制过程的绝大部分步骤都不会阻塞从服务器,但从服务器在载入主服务器发来的RDB文件时,仍然会造成从服务器在一段时间内不能处理命令请求。
 
如果全部从服务器一起对新的主服务器进行同步,那么就可能会造成所有从服务器在短时间内全部不可用的情况出现。你可以通过将这个值设为1来保证每次只有一个从服务器处于不能处理命令请求的状态。
 
sentinel auth-pass redis-master 000000
当Master设置了密码时,Sentinel连接Master和Slave时需要通过设置参数auth-pass配置相应密码。
 
sentinel notification-script redis-master /etc/redis/notify.sh
指定Sentinel检测到该监控的Redis实例failover时调用的报警脚本。脚本被允许执行的最大时间为60秒,超过这个时间脚本会被kill。该配置项可选,但线上系统建议配置。这里的通知脚本简单的记录一下failover事件。

8.1.4 启动codis-server和sentinel

 
     
  1. /home/codis/bin/codis-server /home/codis/conf/redis6379.conf
  2. /home/codis/bin/codis-server /home/codis/conf/redis6380.conf
  3. #启动sentinel
  4. /home/codis/bin/redis-sentinel /home/codis/conf/sentinel26379.conf
  5. /home/codis/bin/redis-sentinel /home/codis/conf/sentinel36380.conf
  6. /home/codis/bin/redis-sentinel /home/codis/conf/sentinel46380.conf
确认是否启动:
 
     
  1. # netstat -tnulp|grep redis
  2. tcp 0 0 192.168.0.102:26379 0.0.0.0:* LISTEN 1583/redis-sentinel
  3. tcp 0 0 192.168.0.102:46380 0.0.0.0:* LISTEN 1595/redis-sentinel
  4. tcp 0 0 192.168.0.102:36380 0.0.0.0:* LISTEN 1589/redis-sentinel
  5. # netstat -tnulp|grep codis
  6. tcp 0 0 192.168.0.102:6379 0.0.0.0:* LISTEN 1564/codis-server 1 tcp 0 0 192.168.0.102:6380 0.0.0.0:* LISTEN 1570/codis-server 1

8.1.5 一些问题

问题1:需要配置奇数个sentinel
需要配置奇数个sentinel,那么安全起见最少就是3个了,sentinel使用的投票机制要求必须 N/2+1(N为sentinel节点总数) 个节点以上确认master挂掉才能进行主从切换,所以建议最少3个。
问题2:主从切换的问题
当主节点挂掉之后,从节点会持续连接主节点,确认主节点的状态,防止由于网络波动引起的连接异常。日志内容如下:
 
     
  1. [4677] 31 Jul 11:11:43.271 # Error condition on socket for SYNC: Connection refused
  2. [4677] 31 Jul 11:11:44.276 * Connecting to MASTER 192.168.0.125:6379
当主节点一直拒接连接,sentinel会使原来的主节点降级,投票选择后使原来的从节点变为主节点。
此时的sentinel.log如下:
 
     
  1. 4237:X 31 Jul 11:38:36.187 # +sdown master mymaster 192.168.0.125 6379
  2. 4237:X 31 Jul 11:38:36.251 # +odown master mymaster 192.168.0.125 6379 #quorum 2/2
  3. 4237:X 31 Jul 11:38:36.251 # +new-epoch 5
  4. 4237:X 31 Jul 11:38:36.251 # +try-failover master mymaster 192.168.0.125 6379
  5. 4237:X 31 Jul 11:38:36.275 # +vote-for-leader 11cec1cc033d782229ffd4f86d17e195afa284ec 5
  6. 4237:X 31 Jul 11:38:36.285 # 192.168.0.125:26379 voted for 11cec1cc033d782229ffd4f86d17e195afa284ec 5
  7. 4237:X 31 Jul 11:38:36.355 # +elected-leader master mymaster 192.168.0.125 6379
  8. 4237:X 31 Jul 11:38:36.355 # +failover-state-select-slave master mymaster 192.168.0.125 6379
  9. 4237:X 31 Jul 11:38:36.419 # +selected-slave slave 192.168.0.125:6380 192.168.0.125 6380 @ mymaster 192.168.0.125 6379
  10. 4237:X 31 Jul 11:38:36.419 * +failover-state-send-slaveof-noone slave 192.168.0.125:6380 192.168.0.125 6380 @ mymaster 192.168.0.125 6379
  11. 4237:X 31 Jul 11:38:36.482 * +failover-state-wait-promotion slave 192.168.0.125:6380 192.168.0.125 6380 @ mymaster 192.168.0.125 6379
  12. 4237:X 31 Jul 11:38:37.295 # +promoted-slave slave 192.168.0.125:6380 192.168.0.125 6380 @ mymaster 192.168.0.125 6379
  13. 4237:X 31 Jul 11:38:37.295 # +failover-state-reconf-slaves master mymaster 192.168.0.125 6379
  14. 4237:X 31 Jul 11:38:37.350 # +failover-end master mymaster 192.168.0.125 6379
  15. 4237:X 31 Jul 11:38:37.350 # +switch-master mymaster 192.168.0.125 6379 192.168.0.125 6380
  16. 4237:X 31 Jul 11:38:37.351 * +slave slave 192.168.0.125:6379 192.168.0.125 6379 @ mymaster 192.168.0.125 6380
  17. 4237:X 31 Jul 11:39:07.379 # +sdown slave 192.168.0.125:6379 192.168.0.125 6379 @ mymaster 192.168.0.125 6380
此时的从节点日志如下:
 
     
  1. [5081] 31 Jul 11:38:35.688 * MASTER <-> SLAVE sync started
  2. [5081] 31 Jul 11:38:35.688 # Error condition on socket for SYNC: Connection refused
  3. [5081] 31 Jul 11:38:36.482 * Discarding previously cached master state.
  4. [5081] 31 Jul 11:38:36.482 * MASTER MODE enabled (user request)
  5. [5081] 31 Jul 11:38:36.482 # CONFIG REWRITE executed with success.
可以从日志内容看到,此时从节点提升为了主节点,而且也可以读写了。但是在这个故障恢复的时间,从节点还是不可写的。
当原来的节点启动后会和新的主节点进行数据同步,日志如下:
 
     
  1. [5081] 31 Jul 11:44:06.408 * Slave 192.168.0.125:6379 asks for synchronization
  2. [5081] 31 Jul 11:44:06.408 * Full resync requested by slave 192.168.0.125:6379
  3. [5081] 31 Jul 11:44:06.408 * Starting BGSAVE for SYNC with target: disk
  4. [5081] 31 Jul 11:44:06.410 * Background saving started by pid 5359
  5. [5359] 31 Jul 11:44:06.439 * DB saved on disk
  6. [5359] 31 Jul 11:44:06.441 * RDB: 8 MB of memory used by copy-on-write
  7. [5081] 31 Jul 11:44:06.507 * Background saving terminated with success
  8. [5081] 31 Jul 11:44:06.507 * Synchronization with slave 192.168.0.125:6379 succeeded
问题3:主从切换中数据访问的问题
当主节点挂掉后,读从节点数据没有问题,但是写的时候就会报错,如下:
 
     
  1. 192.168.0.125:6379> set aaa xxx
  2. (error) READONLY You can't write against a read only slave.
只有当从节点提升为主节点之后才能可读可写。
下面配置dashboard、proxy、fe,有些需要注意的, dashboard在一个集群中只能有一个,只有当其他节点的dashboard挂掉之后,其他节点的才能启动,proxy可以配置多个,fe是依赖于dashboard的,所以只有在配置了dashboard之后,才能配置相应的fe。而一个fe可以配置多个dashboard集群的监控。下面的dashboard、proxy、fe暂时只在146主机上进行配置启动,其它两个节点可以不启动。

8.2 配置dashboard

dashboard的默认配置文件可以通过codis-dashboard命令生成。如下:
 
     
  1. cd /home/codis/bin/
  2. ./codis-dashboard --default-config | tee ../conf/dashboard.toml
修改dashboard.toml配置文件,如下:
 
     
  1. # Set Coordinator, only accept "zookeeper" & "etcd" & "filesystem".
  2. # Quick Start
  3. coordinator_name = "zookeeper"
  4. coordinator_addr = "192.168.0.146:2181,192.168.0.178:2181,192.168.0.102:2181"
  5. #coordinator_name = "zookeeper"
  6. #coordinator_addr = "127.0.0.1:2181"
  7. # Set Codis Product Name/Auth.
  8. product_name = "codis-test"
  9. product_auth = "codispass"
  10. # Set bind address for admin(rpc), tcp only.
  11. admin_addr = "0.0.0.0:18080"
  12. # Set arguments for data migration (only accept 'sync' & 'semi-async').
  13. migration_method = "semi-async" #同步复制或半同步复制
  14. migration_parallel_slots = 100
  15. migration_async_maxbulks = 200
  16. migration_async_maxbytes = "32mb"
  17. migration_async_numkeys = 500
  18. migration_timeout = "30s"
  19. # Set configs for redis sentinel.
  20. sentinel_quorum = 2
  21. sentinel_parallel_syncs = 1
  22. sentinel_down_after = "30s"
  23. sentinel_failover_timeout = "5m"
  24. sentinel_notification_script = ""
  25. sentinel_client_reconfig_script = ""
启动dashboard,如下:
 
     
  1. nohup /home/codis/bin/codis-dashboard --config=/home/codis/conf/dashboard.toml --log=/home/codis/logs/codis/dashboard.log --log-level=INFO &
编写启动脚本bashboard-start.sh:
 
     
  1. #!/bin/bash
  2. #bashboard-start.sh
  3. /home/codis/bin/codis-dashboard --config=/home/codis/conf/dashboard.toml --log=/home/codis/logs/codis/dashboard.log --log-level=INFO
停止脚本:
 
     
  1. #!/bin/bash
  2. #dashboard-stop.sh
  3. /home/codis/bin/codis-admin --dashboard=192.168.0.146:18080 --shutdown
添加执行权限:
 
     
  1. cd /home/codis/bin
  2. chmod +x dashboard*
查看dashboard.log日志,如下:
启动的时候发现如下的错误日志,启动报错了
 
     
  1. 2017/07/31 14:43:54 zkclient.go:23: [INFO] zookeeper - Connected to 192.168.0.102:2181
  2. 2017/07/31 14:43:54 zkclient.go:23: [INFO] zookeeper - Authenticated: id=242516392466579456, timeout=40000
  3. 2017/07/31 14:43:54 zkclient.go:23: [INFO] zookeeper - Re-submitting `0` credentials after reconnect
  4. 2017/07/31 14:43:54 topom.go:189: [ERROR] store: acquire lock of codis-test failed
  5. [error]: zk: node already exists
  6. 6 /home/codis/src/github.com/CodisLabs/codis/pkg/models/zk/zkclient.go:218
  7. github.com/CodisLabs/codis/pkg/models/zk.(*Client).create
  8. 5 /home/codis/src/github.com/CodisLabs/codis/pkg/models/zk/zkclient.go:173
  9. github.com/CodisLabs/codis/pkg/models/zk.(*Client).Create.func1
  10. 4 /home/codis/src/github.com/CodisLabs/codis/pkg/models/zk/zkclient.go:112
  11. github.com/CodisLabs/codis/pkg/models/zk.(*Client).shell
  12. 3 /home/codis/src/github.com/CodisLabs/codis/pkg/models/zk/zkclient.go:175
  13. github.com/CodisLabs/codis/pkg/models/zk.(*Client).Create
  14. 2 /home/codis/src/github.com/CodisLabs/codis/pkg/models/store.go:119
  15. github.com/CodisLabs/codis/pkg/models.(*Store).Acquire
  16. 1 /home/codis/src/github.com/CodisLabs/codis/pkg/topom/topom.go:188
  17. github.com/CodisLabs/codis/pkg/topom.(*Topom).Start
  18. 0 /home/codis/src/github.com/CodisLabs/codis/cmd/dashboard/main.go:169
  19. main.main
  20. ... ...
错误提示:topom.go:189: [ERROR] store: acquire lock of codis-test failed
解决如下:
 
     
  1. # cd /home/codis/bin
  2. # ./codis-admin --remove-lock --product=codis-test --zookeeper=127.0.0.1:2181
  3. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - zkclient setup new connection to 127.0.0.1:2181
  4. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - Connected to 127.0.0.1:2181
  5. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - Authenticated: id=98401204457570304, timeout=40000
  6. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - Re-submitting `0` credentials after reconnect
  7. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - Recv loop terminated: err=EOF
  8. 2017/07/31 14:47:33 zkclient.go:23: [INFO] zookeeper - Send loop terminated: err=<nil>
原因:是由于没有正常关闭dashboard(比如主机突然断电,dashboard进程被直接kill掉等)引起的,这种情况一定要注意,有可能会引起数据的丢失。操作一定要规范。
解决问题之后再次启动,可以看到日志刷新如下:
 
     
  1. 2017/07/31 14:48:59 main.go:78: [WARN] set ncpu = 1
  2. 2017/07/31 14:48:59 zkclient.go:23: [INFO] zookeeper - zkclient setup new connection to 192.168.0.146:2181,192.168.0.178:2181,192.168.0.102:2181
  3. 2017/07/31 14:48:59 topom.go:119: [WARN] create new topom:
  4. {
  5. "token": "f1b47f465fcc0a7378c363cd21412ba9",
  6. "start_time": "2017-07-31 14:48:59.215449647 +0800 CST",
  7. "admin_addr": "node011:18080",
  8. "product_name": "codis-test",
  9. "pid": 1884,
  10. "pwd": "/home/codis/bin",
  11. "sys": "Linux node011 2.6.32-696.3.1.el6.x86_64 #1 SMP Tue May 30 19:52:55 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux"
  12. }
  13. 2017/07/31 14:48:59 main.go:142: [WARN] create topom with config
  14. coordinator_name = "zookeeper"
  15. coordinator_addr = "192.168.0.146:2181,192.168.0.178:2181,192.168.0.102:2181"
  16. admin_addr = "0.0.0.0:18080"
  17. product_name = "codis-test"
  18. product_auth = "codispass"
  19. migration_method = "semi-async"
  20. migration_parallel_slots = 100
  21. migration_async_maxbulks = 200
  22. migration_async_maxbytes = "32mb"
  23. migration_async_numkeys = 500
  24. migration_timeout = "30s"
  25. sentinel_quorum = 2
  26. sentinel_parallel_syncs = 1
  27. sentinel_down_after = "30s"
  28. sentinel_failover_timeout = "5m"
  29. sentinel_notification_script = ""
  30. sentinel_client_reconfig_script = ""
  31. 2017/07/31 14:48:59 zkclient.go:23: [INFO] zookeeper - Connected to 192.168.0.146:2181
  32. 2017/07/31 14:48:59 zkclient.go:23: [INFO] zookeeper - Authenticated: id=98401204457570305, timeout=40000
  33. 2017/07/31 14:48:59 zkclient.go:23: [INFO] zookeeper - Re-submitting `0` credentials after reconnect
  34. 2017/07/31 14:48:59 topom_sentinel.go:169: [WARN] rewatch sentinels = []
  35. 2017/07/31 14:48:59 main.go:179: [WARN] [0xc420271320] dashboard is working ...
  36. 2017/07/31 14:48:59 topom.go:429: [WARN] admin start service on [::]:18080
看日志,这里面有一点不好的就是,日志里面会把你的密码刷新出来,还是明文的。接下来是启动proxy。
然后用netstat确认一下,146主机的18080端口启动了没有。

8.3 配置proxy

对于codis集群的访问,要通过zookeeper来访问proxy,然后到后端codis-serevr集群。所以可以配置多个proxy,可以每个主机上配置一个。这里测试只配置一个。
生成proxy配置文件:
 
     
  1. cd /home/codis/bin
  2. ./codis-proxy --default-config | tee ../conf/proxy.toml
修改配置如下:
 
     
  1. # Set Codis Product Name/Auth.
  2. product_name = "codis-test"
  3. product_auth = "codispass"
  4. # Set auth for client session
  5. # 1. product_auth is used for auth validation among codis-dashboard,
  6. # codis-proxy and codis-server.
  7. # 2. session_auth is different from product_auth, it requires clients
  8. # to issue AUTH <PASSWORD> before processing any other commands.
  9. session_auth = "codispass"
  10. # Set bind address for admin(rpc), tcp only.
  11. admin_addr = "0.0.0.0:11080"
  12. # Set bind address for proxy, proto_type can be "tcp", "tcp4", "tcp6", "unix" or "unixpacket".
  13. proto_type = "tcp4"
  14. proxy_addr = "0.0.0.0:19000"
  15. # Set jodis address & session timeout
  16. # 1. jodis_name is short for jodis_coordinator_name, only accept "zookeeper" & "etcd".
  17. # 2. jodis_addr is short for jodis_coordinator_addr
  18. # 3. proxy will be registered as node:
  19. # if jodis_compatible = true (not suggested):
  20. # /zk/codis/db_{PRODUCT_NAME}/proxy-{HASHID} (compatible with Codis2.0)
  21. # or else
  22. # /jodis/{PRODUCT_NAME}/proxy-{HASHID}
  23. jodis_name = "zookeeper"
  24. jodis_addr = "192.168.0.146:2181,192.168.0.178:2181,192.168.0.102:2181"
  25. jodis_timeout = "20s"
  26. jodis_compatible = false
  27. # Set datacenter of proxy.
  28. proxy_datacenter = ""
  29. # Set max number of alive sessions.
  30. proxy_max_clients = 1000
  31. # Set max offheap memory size. (0 to disable)
  32. proxy_max_offheap_size = "1024mb"
  33. # Set heap placeholder to reduce GC frequency.
  34. proxy_heap_placeholder = "256mb"
  35. # Proxy will ping backend redis (and clear 'MASTERDOWN' state) in a predefined interval. (0 to disable)
  36. backend_ping_period = "5s"
  37. # Set backend recv buffer size & timeout.
  38. backend_recv_bufsize = "128kb"
  39. backend_recv_timeout = "30s"
  40. # Set backend send buffer & timeout.
  41. backend_send_bufsize = "128kb"
  42. backend_send_timeout = "30s"
  43. # Set backend pipeline buffer size.
  44. # Set backend never read replica groups, default is false
  45. backend_primary_only = false
  46. # Set backend parallel connections per server
  47. backend_primary_parallel = 1
  48. backend_replica_parallel = 1
  49. # Set backend tcp keepalive period. (0 to disable)
  50. backend_keepalive_period = "75s"
  51. # Set number of databases of backend.
  52. backend_number_databases = 16
  53. # If there is no request from client for a long time, the connection will be closed. (0 to disable)
  54. # Set session recv buffer size & timeout.
  55. session_recv_bufsize = "128kb"
  56. session_recv_timeout = "30m"
  57. # Set session send buffer size & timeout.
  58. session_send_bufsize = "64kb"
  59. session_send_timeout = "30s"
  60. # Make sure this is higher than the max number of requests for each pipeline request, or your client may be blocked.
  61. # Set session pipeline buffer size.
  62. session_max_pipeline = 10000
  63. # Set session tcp keepalive period. (0 to disable)
  64. session_keepalive_period = "75s"
  65. # Set session to be sensitive to failures. Default is false, instead of closing socket, proxy will send an error response to client.
  66. session_break_on_failure = false
  67. # Set metrics server (such as http://localhost:28000), proxy will report json formatted metrics to specified server in a predefined period.
  68. metrics_report_server = ""
  69. metrics_report_period = "1s"
  70. # Set influxdb server (such as http://localhost:8086), proxy will report metrics to influxdb.
  71. metrics_report_influxdb_server = ""
  72. metrics_report_influxdb_period = "1s"
  73. metrics_report_influxdb_username = ""
  74. metrics_report_influxdb_password = ""
  75. metrics_report_influxdb_database = ""
  76. # Set statsd server (such as localhost:8125), proxy will report metrics to statsd.
  77. metrics_report_statsd_server = ""
  78. metrics_report_statsd_period = "1s"
  79. metrics_report_statsd_prefix =
codis3.2比之前的版本感觉做了很大变动,功能也增多了,配置项也增多了。上面的先只修改必须的配置项,其他配置项另外说明。
修改好配置之后,启动proxy,如下:
 
     
  1. nohup /home/codis/bin/codis-proxy --config=/home/codis/conf/proxy.toml --log=/home/codis/logs/codis/proxy.log --log-level=INFO &
启动脚本:
 
     
  1. #!/bin/bash
  2. nohup /home/codis/bin/codis-proxy --config=/home/codis/conf/proxy.toml --log=/home/codis/logs/codis/proxy.log --log-level=INFO &
有些时候还需要下面一个才能配置上,如下:
 
     
  1. /home/codis/bin/codis-admin --dashboard=192.168.0.146:18080 --create-proxy -x 192.168.0.146:11080 &
这个命令的目的是把proxy绑定到指定的dashboard下面。测试后发现,在第一次启动的时候,由于加载了配置文件,配置文件中有相应的配置,所以可以不用配置,但是其他主机或者proxy由于意外停止之后再次加入相应的dashboard,还是要执行的,否则会报如下的错误:
 
     
  1. 2017/07/31 15:49:04 main.go:222: [WARN] [0xc420106210] proxy waiting online ...
这个时候,19000端口启动了,但是没有绑定dashboard,所以报错了,感觉这是个bug,要不然为什么都加载了配置文件,第一次可以,第二次就不行了。
停止脚本:
 
     
  1. #!/bin/bash
  2. /home/codis/bin/codis-admin --proxy=192.168.0.146:11080 --auth="codispass" --shutdown &
使用ps和netstat查看进程状态和端口监听:
 
     
  1. # ps aux|grep codis-proxy|grep -v grep
  2. root 1961 0.6 16.0 781496 163580 pts/1 Sl 15:02 0:01 /home/codis/bin/codis-proxy --config=/home/codis/conf/proxy.toml --log=/home/codis/logs/codis/proxy.log --log-level=INFO
  3. # netstat -tnulp|grep codis-proxy
  4. tcp 0 0 0.0.0.0:19000 0.0.0.0:* LISTEN 1961/codis-proxy
  5. tcp 0 0 :::11080 :::* LISTEN 1961/codis-proxy
可以确定proxy已经启动,这个时候,我们可以通过192.168.0.146:19000这个地址访问proxy了,当然此时还不能读写数据,因为还没有配置proxy后端的codis-server主机组,下面我们通过codis-fe来配置主机组。当然我们也可以通过codis-admin来配置主机组,不过通过codis-fe更简单直接一些。

8.4 配置启动fe

codis-fe是一个管理和展示codis集群的工具,可以通过web进行访问,直接在web界面进行操作。
生成初始配置文件:
 
   
  1. codis-admin --dashboard-list --zookeeper=127.0.0.1:2181 | tee /home/codis/conf/codis/codis.json
生成的配置文件codis.json如下:
 
    
  1. [
  2. {
  3. "name": "codis-test",
  4. "dashboard": "node011:18080"
  5. }
  6. ]
修改/home/codis/conf/codis.json文件,如下:
 
   
  1. [
  2. {
  3. "name": "codis-test",
  4. "dashboard": "192.168.0.146:18080"
  5. }
  6. ]
这里可以看出,我们可以配置多个dashboard。
启动codis-fe:
 
   
  1. nohup /home/codis/bin/codis-fe --log=/home/codis/logs/codis/fe.log --log-level=INFO --dashboard-list=/home/codis/conf/codis.json --listen=0.0.0.0:8080 &
启动脚本fe-start.sh:
 
    
  1. #!/bin/bash
  2. nohup /home/codis/bin/codis-fe --log=/home/codis/logs/codis/fe.log --log-level=INFO --dashboard-list=/home/codis/conf/codis.json --listen=0.0.0.0:8080 &
停止codis-fe:
很遗憾,在codis生成的命令中,没有找到停止codis-fe的脚本,所以我们只能找到codis-fe的进程,然后使用kill把它杀死了。
停止脚本如下:
 
   
  1. #!/bin/bash
  2. fepid=$(ps aux|grep codis-fe|grep -v grep|gawk 'BEGIN{FS=" "} {print $2}')
  3. kill -9 $fepid

9.使用fe管理界面

其实感觉, 这个fe界面最好结合nginx来做反代,加一个用户认证更好一些,否则只要知道地址就可以访问,这个是一个安全问题了。
下面我们做一些配置:

9.1 新增proxy

我们在178主机上新增一个proxy。在178下新增proxy, 执行 如下 命令
 
   
  1. nohup /home/codis/bin/codis-proxy --config=/home/codis/conf/proxy.toml --log=/home/codis/logs/codis/proxy.log --log-level=INFO &
proxy.toml的配置和146主机的一样。
启动之后可以看到日志刷新如下:
 
   
  1. 2017/07/31 16:29:42 main.go:222: [WARN] [0xc4200fc630] proxy waiting online ...
我们还需要另一条命令:
 
    
  1. /home/codis/bin/codis-admin --dashboard=192.168.0.146:18080 --create-proxy -x 192.168.0.146:11080 &
命令运行完之后可以看到,在web界面出现新的proxy
 当然我们在运行了第一条命令之后,也可以在界面添加:
 新添加的还需要跟原有的proxy做一些同步,不过比较快。

9.2 新增主机组和codis-server主机

新增主机组:
 添加成功:
 添加主机:
 node11:对新增的主机进行标记
192.168.0.146:6380:新增的主机的IP和端口
点击"Add Server"就可以添加了。
把3台主机上的codis-server主从都加进去,新增了3个主机组。

9.3 数据分片

codis中把数据分为0-1023共1024个片区,数据会分散到这1024个片区中保存。数据分片我们可以自定义分片,也可以使用自动分片。
未分片之前:
 
自定义分片如下:
 设置好要分片的片区,片区要绑定的组,上面的就是把750-1023的片区分配到第三个组,点击“Migrate Range”就开始分片了。
 数据迁移的时候,日志会有刷新,web界面也会显示迁移的进度,这个比较好,但是建议数据迁移操作还是在业务低峰期做,防止产生数据不一致。
 
采用自动分片:如果你是刚开始建立的组,可以尝试用自动分片。
创建了两个组,使用自动分片的情况:
开始分片了:
 点击“RebalanceAllSlots”就可以自动分片了。
当我新加了一个组之后,再次选择自动分片:
 可以看到,组3的分片是不连续的。所以最好使用手动调整
自动分片与手动分片的选择:如果你是刚开始集群的安装配置,建议使用自动分片,如果是要新增主机组,建议使用手动分片。因为新增主机组使用自动分片会让片区不连续。

9.4 添加sentinel使集群高可用

添加前确保你的sentinel启动了。添加方式很简单,如下:
 “Add Sentinel"之后,就可以看到已经添加进去了,建议添加多个sentinel,添加完 sentinel之后,可以用“sync”同步一下各个sentinel的状态。
当然,使用完之后,你会发现这个有多少坑。这个后文再说了。

10.其它

codis集群的安装部署已经全部告一段落了,接下来就可以用redis-benchmark,redis-cli进行连接和测试了。
用redis-cli连接proxy的端口,如下:
 
   
  1. # redis-cli -h 192.168.0.146 -a codispass -p 19000
  2. 192.168.0.146:19000> ping
  3. PONG
  4. 192.168.0.146:19000> set hehe haha
  5. OK
  6. 192.168.0.146:19000> set abc 123
  7. OK
使用 redis-benchmark,如下:
 
   
  1. redis-benchmark -h 192.168.0.146 -p 19000 -a codispass -t set,get -n 100000 -q
  2. SET: 14304.10 requests per second
  3. GET: 14287.75 requests per second
这个结果是由于虚拟机配置太低,不具有参考价值。
好了,安装配置codis的问题基本解决了。codis集群安装配置下来,总的感觉,组件太多,配置繁琐,不过后期运维应该会简单一下,可以做到不停机维护,数据迁移等,还可以通过web界面进行配置。

转载于:https://www.cnblogs.com/zhangpf/articles/7274554.html

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值