mysql 安装 product 损坏_MySQL如何实现万亿级数据存储?

8a3eca970c9143faceb2aac7aeb5003a.png

作者个人研发的在高并发场景下,提供的简单、稳定、可扩展的延迟消息队列框架,具有精准的定时任务和延迟队列处理功能。自开源半年多以来,已成功为十几家中小型企业提供了精准定时调度方案,经受住了生产环境的考验。为使更多童鞋受益,现给出开源框架地址:

前言

业界对系统的高可用有着基本的要求,简单的说,这些要求可以总结为如下所示。

  • 系统架构中不存在单点问题。
  • 可以最大限度的保障服务的可用性。

一般情况下系统的高可用可以用几个9来评估。所谓的几个9就是系统可以保证对外提供的服务的时间达到总时间的百分比。例如如果需要达到的高可用,则系统全年发生故障的总时间不能超过52分钟。

系统高可用架构

我们既然需要实现系统的高可用架构,那么,我们到底需要搭建一个什么样的系统架构呢?我们可以将需要搭建的系统架构简化成下图所示。

2707f2e6ae77af553ec3baa3c43874ea.png

服务器规划

由于我电脑资源有限,我这里在4台服务器上搭建高可用环境,大家可以按照本文将环境扩展到更多的服务器,搭建步骤都是一样的。

主机名IP地址安装的服务
binghe151Mycat、Zookeeper、
MySQL、HAProxy、
Keepalived、Xinetd
binghe152192.168.175.152Zookeeper、MySQL
binghe153192.168.175.153Zookeeper、MySQL
binghe154Mycat、MySQL、
HAProxy、Keepalived、
Xinetd
binghe155192.168.175.155MySQL

注意:HAProxy和Keepalived最好和Mycat部署在同一台服务器上。

安装JDK

由于Mycat和Zookeeper的运行需要JDK环境的支持,所有我们需要在每台服务器上安装JDK环境。

这里,我以在binghe151服务器上安装JDK为例,其他服务器的安装方式与在binghe151服务器上的安装方式相同。安装步骤如下所示。

(1)到JDK官网下载JDK 1.8版本,的下载地址为:。

注:我下载的JDK安装包版本为:,如果JDK版本已更新,大家下载对应的版本即可。

(2)将下载的安装包上传到binghe151服务器的/usr/local/src目录下。

(3)解压文件,如下所示。

tar -zxvf  

(4)将解压的目录移动到binghe151服务器下的/usr/local目录下,如下所示。

mv / /usr/local/src/ 

(5)配置JDK系统环境变量,如下所示。

vim /etc/profile JAVA_HOME=/usr/local/ CLASS_PATH=.:$JAVA_HOME/lib PATH=$JAVA_HOME/bin:$PATH export JAVA_HOME CLASS_PATH PATH 

使系统环境变量生效,如下所示。

source /etc/profile 

(6)查看JDK版本,如下所示。

[root@binghe151 ~]# java -version java version "" Java(TM) SE Runtime Environment (build -b10) Java HotSpot(TM) 64-Bit Server VM (build , mixed mode) 

结果显示,正确输出了JDK的版本信息,说明JDK安装成功。

安装Mycat

下载Mycat 1.6.7.4 Release版本,解压到服务器的/usr/local/mycat目录下,并配置Mycat的系统环境变量,随后,配置Mycat的配置文件,Mycat的最终结果配置如下所示。

<?xml version=""?> <!DOCTYPE mycat:schema SYSTEM ""> <mycat:schema xmlns:mycat="">   <schema name="shop" checkSQLschema="false" sqlMaxLimit="1000">   <!   <table name="order_master" primaryKey="order_id" dataNode = "orderdb01,orderdb02,orderdb03,orderdb04" rule="order_master" autoIncrement="true">    <childTable name="order_detail" primaryKey="order_detail_id" joinKey="order_id" parentKey="order_id" autoIncrement="true"/>   </table>   <table name="order_cart" primaryKey="cart_id" dataNode = "ordb"/>   <table name="order_customer_addr" primaryKey="customer_addr_id" dataNode = "ordb"/>   <table name="region_info" primaryKey="region_id" dataNode = "ordb,prodb,custdb" type="global"/>   <table name="serial" primaryKey="id" dataNode = "ordb"/>   <table name="shipping_info" primaryKey="ship_id" dataNode = "ordb"/>   <table name="warehouse_info" primaryKey="w_id" dataNode = "ordb"/>   <table name="warehouse_proudct" primaryKey="wp_id" dataNode = "ordb"/>      <table name="product_brand_info" primaryKey="brand_id" dataNode = "prodb"/>   <table name="product_category" primaryKey="category_id" dataNode = "prodb"/>   <table name="product_comment" primaryKey="comment_id" dataNode = "prodb"/>   <table name="product_info" primaryKey="product_id" dataNode = "prodb"/>   <table name="product_pic_info" primaryKey="product_pic_id" dataNode = "prodb"/>   <table name="product_supplier_info" primaryKey="supplier_id" dataNode = "prodb"/>      <table name="customer_balance_log" primaryKey="balance_id" dataNode = "custdb"/>   <table name="customer_inf" primaryKey="customer_inf_id" dataNode = "custdb"/>   <table name="customer_level_inf" primaryKey="customer_level" dataNode = "custdb"/>   <table name="customer_login" primaryKey="customer_id" dataNode = "custdb"/>   <table name="customer_login_log" primaryKey="login_id" dataNode = "custdb"/>   <table name="customer_point_log" primaryKey="point_id" dataNode = "custdb"/>     </schema>    <dataNode name="mycat" dataHost="binghe151" database="mycat" />     <dataNode name="ordb" dataHost="binghe152" database="order_db" />  <dataNode name="prodb" dataHost="binghe153" database="product_db" />  <dataNode name="custdb" dataHost="binghe154" database="customer_db" />    <dataNode name="orderdb01" dataHost="binghe152" database="orderdb01" />  <dataNode name="orderdb02" dataHost="binghe152" database="orderdb02" />  <dataNode name="orderdb03" dataHost="binghe153" database="orderdb03" />  <dataNode name="orderdb04" dataHost="binghe153" database="orderdb04" />    <dataHost name="binghe151" maxCon="1000" minCon="10" balance="1"      writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100">   <heartbeat>select user()</heartbeat>   <writeHost host="binghe51" url="" user="mycat" password="mycat"/>  </dataHost>    <dataHost name="binghe152" maxCon="1000" minCon="10" balance="1"      writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100">   <heartbeat>select user()</heartbeat>   <writeHost host="binghe52" url="" user="mycat" password="mycat"/>  </dataHost>    <dataHost name="binghe153" maxCon="1000" minCon="10" balance="1"      writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100">   <heartbeat>select user()</heartbeat>   <writeHost host="binghe53" url="" user="mycat" password="mycat"/>  </dataHost>    <dataHost name="binghe154" maxCon="1000" minCon="10" balance="1"      writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100">   <heartbeat>select user()</heartbeat>   <writeHost host="binghe54" url="" user="mycat" password="mycat"/>  </dataHost>   </mycat:schema
<?xml version="" encoding="UTF-8"?> <!DOCTYPE mycat:server SYSTEM ""> <mycat:server xmlns:mycat="">  <system>   <property name="useHandshakeV10">1</property>         <property name="defaultSqlParser">druidparser</property>   <property name="serverPort">3307</property>   <property name="managerPort">3308</property>   <property name="nonePasswordLogin">0</property>   <property name="bindIp">   <property name="charset">utf8mb4</property>   <property name="frontWriteQueueSize">2048</property>   <property name="txIsolation">2</property>   <property name="processors">2</property>   <property name="idleTimeout">1800000</property>   <property name="sqlExecuteTimeout">300</property>   <property name="useSqlStat">0</property>   <property name="useGlobleTableCheck">0</property>   <property name="sequenceHandlerType">1</property>   <property name="defaultMaxLimit">1000</property>   <property name="maxPacketSize">104857600</property>      <property name="sqlInterceptor">       </property>   <property name="sqlInterceptorType">    UPDATE,DELETE,INSERT   </property>   <property name="sqlInterceptorFile">/tmp/  </system>    <firewall>   <whitehost>    <host user="mycat" host=""></host>   </whitehost>   <blacklist check="true">    <property name="noneBaseStatementAllow">true</property>    <property name="deleteWhereNoneCheck">true</property>   </blacklist>  </firewall>    <user name="mycat" defaultAccount="true">   <property name="usingDecrypt">1</property>   <property name="password">cTwf23RrpBCEmalp/nx0BAKenNhvNs2NSr9nYiMzHADeEDEfwVWlI6hBDccJjNBJqJxnunHFp5ae63PPnMfGYA==</property>   <property name="schemas">shop</property>  </user>  </mycat:server> 
<?xml version="" encoding="UTF-8"?> <!DOCTYPE mycat:rule SYSTEM ""> <mycat:rule xmlns:mycat="">  <tableRule name="order_master">   <rule>    <columns>customer_id</columns>    <algorithm>mod-long</algorithm>   </rule>  </tableRule>    <function name="mod-long" class="">   <property name="count">4</property>  </function> </mycat:rule
#sequence stored in datanode GLOBAL=mycat ORDER_MASTER=mycat ORDER_DETAIL=mycat 

关于Mycat的配置,仅供大家参考,大家不一定非要按照我这里配置,根据自身业务需要配置即可。本文的重点是实现Mycat的高可用环境搭建。

在MySQL中创建Mycat连接MySQL的账户,如下所示。

CREATE USER 'mycat'@'' IDENTIFIED BY 'mycat'ALTER USER 'mycat'@'' IDENTIFIED WITH mysql_native_password BY 'mycat';  GRANT SELECTINSERTUPDATEDELETE,EXECUTE  ON *.* TO 'mycat'@''; FLUSH PRIVILEGES

安装Zookeeper集群

安装配置完JDK后,就需要搭建Zookeeper集群了,根据对服务器的规划,现将Zookeeper集群搭建在“binghe151”、“binghe152”、“binghe153”三台服务器上。

1.下载Zookeeper

到Apache官网去下载Zookeeper的安装包,Zookeeper的安装包下载地址为:。具体如下图所示。

54f70bc5bca824b73663f68869b47582.png

也可以在binghe151服务器上执行如下命令直接下载。

wget /apache--bin.tar.gz 

执行上述命令就可以直接把apache--bin.tar.gz安装包下载到binghe151服务器上。

2.安装并配置Zookeeper

注意:(1)、(2)、(3)步都是在binghe152服务器上执行的。

(1)解压Zookeeper安装包

在binghe151服务器上执行如下命令,将Zookeeper解压到“/usr/local/”目录下,并将Zookeeper目录修改为。

tar -zxvf apache--bin.tar.gz mv apache--bin  

(2)配置Zookeeper系统环境变量

同样,需要在/etc/profile文件中配置Zookeeper系统环境变量,如下:

ZOOKEEPER_HOME=/usr/local/ PATH=$ZOOKEEPER_HOME/bin:$PATH export ZOOKEEPER_HOME PATH 

结合之前配置的JDK系统环境变量,/etc/profile,总体配置如下:

MYSQL_HOME=/usr/local/mysql JAVA_HOME=/usr/local/ MYCAT_HOME=/usr/local/mycat ZOOKEEPER_HOME=/usr/local/ MPC_HOME=/usr/local/mpc-1. GMP_HOME=/usr/local/ MPFR_HOME=/usr/local/ CLASS_PATH=.:$JAVA_HOME/lib LD_LIBRARY_PATH=$MPC_LIB_HOME/lib:$GMP_HOME/lib:$MPFR_HOME/lib:$LD_LIBRARY_PATH PATH=$MYSQL_HOME/bin:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$MYCAT_HOME/bin:$PATH export JAVA_HOME ZOOKEEPER_HOME MYCAT_HOME CLASS_PATH MYSQL_HOME MPC_LIB_HOME GMP_HOME MPFR_HOME LD_LIBRARY_PATH PATH 

(3)配置Zookeeper

首先,需要将ZOOKEEPER_HOME为Zookeeper的安装目录)目录下的文件修改为文件。具体命令如下:

cd /usr/local//conf/ mv   

接下来修改文件,修改后的具体内容如下:

tickTime=2000 initLimit=10 syncLimit=5 dataDir=/usr/local//data dataLogDir=/usr/local//dataLog clientPort=2181    

在Zookeeper的安装目录下创建data和dataLog两个文件夹。

mkdir -p /usr/local//data mkdir -p /usr/local//dataLog 

切换到新建的data目录下,创建myid文件,具体内容为数字1,如下所示:

cd /usr/local//data vim myid 

将数字1写入到文件myid。

3.将Zookeeper和系统环境变量文件复制到其他服务器

注意:(1)、(2)步是在binghe151服务器上执行的。

(1)复制Zookeeper到其他服务器

根据对服务器的规划,现将Zookeeper复制到binghe152和binghe53服务器,具体执行操作如下所示:

scp -r /usr/local// binghe152:/usr/local/ scp -r /usr/local// binghe153:/usr/local

(2)复制系统环境变量文件到其他服务器

根据对服务器的规划,现将系统环境变量文件/etc/profile复制到binghe152、binghe153服务器,具体执行操作如下所示:

scp /etc/profile binghe152:/etc/ scp /etc/profile binghe153:/etc/ 

上述操作可能会要求输入密码,根据提示输入密码即可。

4.修改其他服务器上的myid文件

修改binghe152服务器上Zookeeper的myid文件内容为数字2,同时修改binghe153服务器上Zookeeper的myid文件内容为数字3。具体如下:

在binghe152服务器上执行如下操作:

echo "2" > /usr/local//data/myid cat /usr/local//data/myid 2 

在binghe153服务器上执行如下操作:

echo "3" > /usr/local//data/myid cat /usr/local//data/myid 3 

5.使环境变量生效

分别在binghe151、binghe152、binghe153上执行如下操作,使系统环境变量生效。

source /etc/profile 

6.启动Zookeeper集群

分别在binghe151、binghe152、binghe153上执行如下操作,启动Zookeeper集群。

 start 

7.查看Zookeeper集群的启动状态

[root@binghe151 ~]#  status ZooKeeper JMX enabled by default Using config: /usr/local//bin/../conf/ Client port found: 2181. Client address: localhost. Mode: follower 
[root@binghe152 local]#  status ZooKeeper JMX enabled by default Using config: /usr/local//bin/../conf/ Client port found: 2181. Client address: localhost. Mode: leader 
[root@binghe153 ~]#  status ZooKeeper JMX enabled by default Using config: /usr/local//bin/../conf/ Client port found: 2181. Client address: localhost. Mode: follower 

可以看到,binghe151和binghe153服务器上的Zookeeper角色为follower,binghe152服务器上的Zookeeper角色为leader。

初始化Mycat配置到Zookeeper集群

注意:初始化Zookeeper中的数据,是在binghe151服务器上进行的,原因是之前我们已经在binghe151服务器上安装了Mycat。

1.查看初始化脚本

在Mycat安装目录下的bin目录中提供了一个脚本文件,如下所示。

[root@binghe151 ~]# ll /usr/local/mycat/bin/ total 384 -rwxr-xr-x 1 root root   3658 Feb 26 17:10  -rwxr-xr-x 1 root root   1272 Feb 26 17:10  -rwxr-xr-x 1 root root  15701 Feb 28 20:51 mycat -rwxr-xr-x 1 root root   2986 Feb 26 17:10  -rwxr-xr-x 1 root root   2526 Feb 26 17:10  -rwxr-xr-x 1 root root 140198 Feb 28 20:51 wrapper-linux-ppc-64 -rwxr-xr-x 1 root root  99401 Feb 28 20:51 wrapper-linux-x86-32 -rwxr-xr-x 1 root root 111027 Feb 28 20:51 wrapper-linux-x86-64 

脚本文件就是用来向Zookeeper中初始化Mycat的配置的,这个文件会通过读取Mycat安装目录下的conf目录下的配置文件,将其初始化到Zookeeper集群中。

2.复制Mycat配置文件

首先,我们查看下Mycat安装目录下的conf目录下的文件信息,如下所示。

[root@binghe151 ~]# cd /usr/local/mycat/conf/ [root@binghe151 conf]# ll total 108 -rwxrwxrwx 1 root root   92 Feb 26 17:10  -rwxrwxrwx 1 root root   51 Feb 26 17:10  -rwxrwxrwx 1 root root   67 Feb 26 17:10  -rwxrwxrwx 1 root root  340 Feb 26 17:10  -rwxrwxrwx 1 root root 3338 Feb 26 17:10  -rwxrwxrwx 1 root root 3532 Feb 26 17:10 dbseq -  -rw-r -rwxrwxrwx 1 root root  446 Feb 26 17:10  -rwxrwxrwx 1 root root 2454 Feb 26 17:10  -rwxrwxrwx 1 root root 1285 Feb 26 17:10  -rwxrwxrwx 1 root root  183 Feb 26 17:10  -rwxrwxrwx 1 root root  271 Feb 26 17:10  -rwxrwxrwx 1 root root   16 Feb 26 17:10 partition-hash-int.txt -rwxrwxrwx 1 root root  108 Feb 26 17:10  -rwxrwxrwx 1 root root  988 Mar  1 16:59 rule.xml -rwxrwxrwx 1 root root 3883 Mar  3 23:59 schema.xml -rwxrwxrwx 1 root root  440 Feb 26 17:10  -rwxrwxrwx 1 root root   84 Mar  3 23:52  -rwxrwxrwx 1 root root   29 Feb 26 17:10  -rwxrwxrwx 1 root root   28 Feb 26 17:10  -rwxrwxrwx 1 root root   53 Feb 26 17:10  -rwxrwxrwx 1 root root 2420 Mar  4 15:14  -rwxrwxrwx 1 root root   18 Feb 26 17:10 sharding-by-enum.txt -rwxrwxrwx 1 root root 4251 Feb 28 20:51  drwxrwxrwx 2 root root 4096 Feb 28 21:17 zkconf drwxrwxrwx 2 root root 4096 Feb 28 21:17 zkdownload 

接下来,将Mycat安装目录下的conf目录下的文件、文件、文件和文件复制到conf目录下的zkconf目录下,如下所示。

cp schema.xml  rule.xml  zkconf/ 

3.将Mycat配置信息写入Zookeeper集群

执行脚本文件,向Zookeeper集群中初始化配置信息,如下所示。

[root@binghe151 bin]# /usr/local/mycat/bin/   o2020-03-08 20:03:13 INFO JAVA_CMD=/usr/local//bin/java o2020-03-08 20:03:13 INFO Start to initialize /mycat of ZooKeeper o2020-03-08 20:03:14 INFO Done 

根据以上信息得知,Mycat向Zookeeper写入初始化配置信息成功。

4.验证Mycat配置信息是否成功写入Mycat

我们可以使用Zookeeper的客户端命令 登录Zookeeper来验证Mycat的配置信息是否成功写入Mycat。

首先,登录Zookeeper,如下所示。

[root@binghe151 ~]#   Connecting to localhost:2181 ###################此处省略N行输出###################### Welcome to ZooKeeper!  WATCHER::  WatchedEvent state:SyncConnected type:None path:null [zk: localhost:2181(CONNECTED) 0]  

接下来,在Zookeeper命令行查看mycat的信息,如下所示。

[zk: localhost:2181(CONNECTED) 0] ls / [mycat, zookeeper] [zk: localhost:2181(CONNECTED) 1] ls /mycat [mycat-cluster-1] [zk: localhost:2181(CONNECTED) 2] ls /mycat/mycat-cluster-1 [cache, line, rules, schema, sequences, server] [zk: localhost:2181(CONNECTED) 3]  

可以看到,在/mycat/mycat-cluster-1下存在6个目录,接下来,查看下schema目录下的信息,如下所示。

[zk: localhost:2181(CONNECTED) 3] ls /mycat/mycat-cluster-1/schema [dataHost, dataNode, schema

接下来,我们查看下dataHost的配置,如下所示。

[zk: localhost:2181(CONNECTED) 4] get /mycat/mycat-cluster-1/schema/dataHost [{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe151","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe51","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe152","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe52","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe153","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe53","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe154","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe54","url":"","password":"root","user":"root"}]}] 

上面的输出信息格式比较乱,但可以看出是Json格式的信息,我们可以将输出信息进行格式化,格式化后的结果如下所示。

[     {         "balance": 1,         "maxCon": 1000,         "minCon": 10,         "name""binghe151",         "writeType": 0,         "switchType": 1,         "slaveThreshold": 100,         "dbType""mysql",         "dbDriver""native",         "heartbeat""select user()",         "writeHost": [             {                 "host""binghe51",                 "url""",                 "password""root",                 "user""root"             }         ]     },     {         "balance": 1,         "maxCon": 1000,         "minCon": 10,         "name""binghe152",         "writeType": 0,         "switchType": 1,         "slaveThreshold": 100,         "dbType""mysql",         "dbDriver""native",         "heartbeat""select user()",         "writeHost": [             {                 "host""binghe52",                 "url""",                 "password""root",                 "user""root"             }         ]     },     {         "balance": 1,         "maxCon": 1000,         "minCon": 10,         "name""binghe153",         "writeType": 0,         "switchType": 1,         "slaveThreshold": 100,         "dbType""mysql",         "dbDriver""native",         "heartbeat""select user()",         "writeHost": [             {                 "host""binghe53",                 "url""",                 "password""root",                 "user""root"             }         ]     },     {         "balance": 1,         "maxCon": 1000,         "minCon": 10,         "name""binghe154",         "writeType": 0,         "switchType": 1,         "slaveThreshold": 100,         "dbType""mysql",         "dbDriver""native",         "heartbeat""select user()",         "writeHost": [             {                 "host""binghe54",                 "url""",                 "password""root",                 "user""root"             }         ]     } ] 

可以看到,我们在Mycat的文件中配置的dataHost节点的信息,成功写入到Zookeeper中了。

为了验证Mycat的配置信息,是否已经同步到Zookeeper的其他节点上,我们也可以在binghe152和binghe153服务器上登录Zookeeper,查看Mycat配置信息是否写入成功。

[root@binghe152 ~]#   Connecting to localhost:2181 #################省略N行输出信息################ [zk: localhost:2181(CONNECTED) 0] get /mycat/mycat-cluster-1/schema/dataHost [{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe151","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe51","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe152","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe52","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe153","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe53","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe154","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe54","url":"","password":"root","user":"root"}]}] 

可以看到,Mycat的配置信息成功同步到了binghe152服务器上的Zookeeper中。

[root@binghe153 ~]#   Connecting to localhost:2181 #####################此处省略N行输出信息##################### [zk: localhost:2181(CONNECTED) 0] get /mycat/mycat-cluster-1/schema/dataHost [{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe151","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe51","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe152","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe52","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe153","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe53","url":"","password":"root","user":"root"}]},{"balance":1,"maxCon":1000,"minCon":10,"name":"binghe154","writeType":0,"switchType":1,"slaveThreshold":100,"dbType":"mysql","dbDriver":"native","heartbeat":"select user()","writeHost":[{"host":"binghe54","url":"","password":"root","user":"root"}]}] 

可以看到,Mycat的配置信息成功同步到了binghe153服务器上的Zookeeper中。

配置Mycat支持Zookeeper启动

1.在binghe151服务器上配置Mycat

在binghe151服务器上进入Mycat安装目录的conf目录下,查看文件信息,如下所示。

[root@binghe151 ~]# cd /usr/local/mycat/conf/ [root@binghe151 conf]# ll total 108 -rwxrwxrwx 1 root root   92 Feb 26 17:10  -rwxrwxrwx 1 root root   51 Feb 26 17:10  -rwxrwxrwx 1 root root   67 Feb 26 17:10  -rwxrwxrwx 1 root root  340 Feb 26 17:10  -rwxrwxrwx 1 root root 3338 Feb 26 17:10  -rwxrwxrwx 1 root root 3532 Feb 26 17:10 dbseq -  -rw-r -rwxrwxrwx 1 root root  446 Feb 26 17:10  -rwxrwxrwx 1 root root 2454 Feb 26 17:10  -rwxrwxrwx 1 root root 1285 Feb 26 17:10  -rwxrwxrwx 1 root root  183 Feb 26 17:10  -rwxrwxrwx 1 root root  271 Feb 26 17:10  -rwxrwxrwx 1 root root   16 Feb 26 17:10 partition-hash-int.txt -rwxrwxrwx 1 root root  108 Feb 26 17:10  -rwxrwxrwx 1 root root  988 Mar  1 16:59 rule.xml -rwxrwxrwx 1 root root 3883 Mar  3 23:59 schema.xml -rwxrwxrwx 1 root root  440 Feb 26 17:10  -rwxrwxrwx 1 root root   84 Mar  3 23:52  -rwxrwxrwx 1 root root   29 Feb 26 17:10  -rwxrwxrwx 1 root root   28 Feb 26 17:10  -rwxrwxrwx 1 root root   53 Feb 26 17:10  -rwxrwxrwx 1 root root 2420 Mar  4 15:14  -rwxrwxrwx 1 root root   18 Feb 26 17:10 sharding-by-enum.txt -rwxrwxrwx 1 root root 4251 Feb 28 20:51  drwxrwxrwx 2 root root 4096 Feb 28 21:17 zkconf drwxrwxrwx 2 root root 4096 Feb 28 21:17 zkdownload 

可以看到,在Mycat的conf目录下,存在一个文件,接下来,使用vim编辑器编辑这个文件,如下所示。

vim   

编辑后的文件的内容如下所示。

loadZk=true zkURL=:2181,192.168.175.152:2181,192.168.175.153:2181 clusterId=mycat-cluster-1 myid=mycat_151 clusterSize=2 clusterNodes=mycat_151,mycat_154 #server  booster  ;   booster install on db same server,will reset all minCon to 2 type=server boosterDataHosts=dataHost1 

其中几个重要的参数说明如下所示。

  • loadZk:表示是否加载Zookeeper配置。true:是;false:否;
  • zkURL:Zookeeper的连接地址,多个Zookeeper连接地址以逗号隔开;
  • clusterId:当前Mycat集群的Id标识,此标识需要与Zookeeper中/mycat目录下的目录名称相同,如下所示。
[zk: localhost:2181(CONNECTED) 1] ls /mycat [mycat-cluster-1] 
  • myid:当前Mycat节点的id,这里我的命名方式为mycat_前缀加上IP地址的最后三位;
  • clusterSize:表示Mycat集群中的Mycat节点个数,这里,我们在binghe151和binghe154节点上部署Mycat,所以Mycat节点的个数为2。
  • clusterNodes:Mycat集群中,所有的Mycat节点,此处的节点需要配置myid中配置的Mycat节点id,多个节点之前以逗号分隔。这里我配置的节点为:mycat_151,mycat_154。

2.在binghe154服务器上安装全新的Mycat

在binghe154服务器上下载并安装和binghe151服务器上相同版本的Mycat,并将其解压到binghe154服务器上的/usr/local/mycat目录下。

也可以在binghe151服务器上直接输入如下命令将Mycat的安装目录复制到binghe154服务器上。

[root@binghe151 ~]# scp -r /usr/local/mycat binghe154:/usr/local 

注意:别忘了在binghe154服务器上配置Mycat的系统环境变量。

3.修改binghe154服务器上的Mycat配置

在binghe154服务器上修改Mycat安装目录下的conf目录中的文件,如下所示。

vim /usr/local/mycat/conf/ 

修改后的文件的内容如下所示。

loadZk=true zkURL=:2181,192.168.175.152:2181,192.168.175.153:2181 clusterId=mycat-cluster-1 myid=mycat_154 clusterSize=2 clusterNodes=mycat_151,mycat_154 #server  booster  ;   booster install on db same server,will reset all minCon to 2 type=server boosterDataHosts=dataHost1 

4.重启Mycat

分别重启binghe151服务器和binghe154服务器上的Mycat,如下所示。

注意:先重启

[root@binghe151 ~]# mycat restart Stopping Mycat-server... Stopped Mycat-server. Starting Mycat-server... 
[root@binghe154 ~]# mycat restart Stopping Mycat-server... Stopped Mycat-server. Starting Mycat-server... 

在binghe151和binghe154服务器上分别查看Mycat的启动日志,如下所示。

STATUS | wrapper  | 2020/03/08 21:08:15 | < STATUS | wrapper  | 2020/03/08 21:08:15 |  STATUS | wrapper  | 2020/03/08 21:08:15 | Launching a JVM... INFO   | jvm 1    | 2020/03/08 21:08:16 | Wrapper (Version )  INFO   | jvm 1    | 2020/03/08 21:08:16 |   Copyright 1999-2006 Tanuki Software, Inc.  All Rights Reserved. INFO   | jvm 1    | 2020/03/08 21:08:16 |  INFO   | jvm 1    | 2020/03/08 21:08:28 | MyCAT Server startup successfully. see logs in logs/ 

从日志的输出结果可以看出,Mycat重启成功。

此时,先重启binghe151服务器上的Mycat,再重启binghe154服务器上的Mycat之后,我们会发现binghe154服务器上的Mycat的conf目录下的、、和文件与binghe151服务器上Mycat的配置文件相同,这就是binghe154服务器上的Mycat从Zookeeper上读取配置文件的结果。

以后,我们只需要修改Zookeeper中有关Mycat的配置,这些配置就会自动同步到Mycat中,这样可以保证多个Mycat节点的配置是一致的。

配置虚拟IP

分别在binghe151和binghe154服务器上配置虚拟IP,如下所示。

ifconfig eth0:1  broadcast  netmask  up route add -host  dev eth0:1 

配置完虚拟IP的效果如下所示,以binghe151服务器为例。

[root@binghe151 ~]# ifconfig eth0      Link encap:Ethernet  HWaddr 00:0C:29:10:A1:45             inet addr:  Bcast:  Mask:           inet6 addr: fe80::20c:29ff:fe10:a145/64 Scope:Link           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1           RX packets:116766 errors:0 dropped:0 overruns:0 frame:0           TX packets:85230 errors:0 dropped:0 overruns:0 carrier:0           collisions:0 txqueuelen:1000            RX bytes:25559422 ( MiB)  TX bytes:55997016 ( MiB)  eth0:1    Link encap:Ethernet  HWaddr 00:0C:29:10:A1:45             inet addr:  Bcast:  Mask:           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1  lo        Link encap:Local Loopback             inet addr:  Mask:           inet6 addr: ::1/128 Scope:Host           UP LOOPBACK RUNNING  MTU:65536  Metric:1           RX packets:51102 errors:0 dropped:0 overruns:0 frame:0           TX packets:51102 errors:0 dropped:0 overruns:0 carrier:0           collisions:0 txqueuelen:0            RX bytes:2934009 ( MiB)  TX bytes:2934009 ( MiB) 

注意:在命令行添加VIP后,当服务器重启后,VIP信息会消失,所以,最好是将创建VIP的命令写到一个脚本文件中,例如,将命令写到/usr/local/script/文件中,如下所示。

mkdir /usr/local/script vim /usr/local/script/ 

文件的内容如下所示。

ifconfig eth0:1  broadcast  netmask  up route add -host  dev eth0:1 

接下来,将/usr/local/script/文件添加到服务器开机启动项中,如下所示。

echo /usr/local/script/ >> /etc/rc.d/rc.local 

配置IP转发

在binghe151和binghe154服务器上配置系统内核IP转发功能,编辑/etc/文件,如下所示。

vim /etc/ 

找到如下一行代码。

 = 0 

将其修改成如下所示的代码。

 = 1 

保存并退出vim编辑器,并运行如下命令使配置生效。

sysctl -p 

安装并配置xinetd服务

我们需要在安装HAProxy的服务器上,也就是在binghe151和binghe154服务器上安装xinetd服务来开启48700端口。

(1)在服务器命令行执行如下命令安装xinetd服务,如下所示。

yum install xinetd -y 

(2)编辑/etc/文件,如下所示。

vim /etc/ 

检查文件中是否存在如下配置。

includedir /etc/ 

如果/etc/文件中没有以上配置,则在/etc/文件中添加以上配置;如果存在以上配置,则不用修改。

(3)创建/etc/目录,如下所示。

mkdir /etc/ 

注意:如果/etc/目录已经存在,创建目录时会报如下错误。

mkdir: cannot create directory `/etc/': File exists 

大家可不必理会此错误信息。

(4)在/etc/目录下添加Mycat状态检测服务器的配置文件mycat_status,如下所示。

touch /etc//mycat_status 

(5)编辑mycat_status文件,如下所示。

vim /etc//mycat_status 

编辑后的mycat_status文件中的内容如下所示。

service mycat_status { flags = REUSE socket_type = stream port = 48700 wait = no user = root server =/usr/local/bin/ log_on_failure += USERID disable = no } 

部分xinetd配置参数说明如下所示。

  • socket_type:表示封包处理方式,Stream为TCP数据包。
  • port:表示xinetd服务监听的端口号。
  • wait:表示不需等待,即服务将以多线程的方式运行。
  • user:运行xinted服务的用户。
  • server:需要启动的服务脚本。
  • log_on_failure:记录失败的日志内容。
  • disable:需要启动xinted服务时,需要将此配置项设置为no。

(6)在/usr/local/bin目录下添加服务脚本,如下所示。

touch /usr/local/bin/ 

(7)编辑/usr/local/bin/文件,如下所示。

vim /usr/local/bin/ 

编辑后的文件内容如下所示。

#!/bin/bash mycat=`/usr/local/mycat/bin/mycat status | grep 'not running' | wc -l` if [ "$mycat" = "0" ]; then /bin/echo -e "HTTP/ 200 OK\r\n" else /bin/echo -e "HTTP/ 503 Service Unavailable\r\n" /usr/local/mycat/bin/mycat start fi 

为文件赋予可执行权限,如下所示。

chmod a+x /usr/local/bin/ 

(8)编辑/etc/services文件,如下所示。

vim /etc/services 

在文件末尾添加如下所示的内容。

mycat_status  48700/tcp        # mycat_status 

其中,端口号需要与在/etc//mycat_status文件中配置的端口号相同。

(9)重启xinetd服务,如下所示。

service xinetd restart 

(10)查看mycat_status服务是否成功启动,如下所示。

[root@binghe151 ~]# netstat -antup|grep 48700 tcp    0   0 :::48700          :::*      LISTEN   2776/xinetd 
[root@binghe154 ~]# netstat -antup|grep 48700 tcp    0   0 :::48700          :::*      LISTEN   6654/xinetd 

结果显示,两台服务器上的mycat_status服务器启动成功。

至此,xinetd服务安装并配置成功,即Mycat状态检查服务安装成功。

安装并配置HAProxy

我们直接在binghe151和binghe154服务器上使用如下命令安装HAProxy。

yum install haproxy -y 

安装完成后,我们需要对HAProxy进行配置,HAProxy的配置文件目录为/etc/haproxy,我们查看这个目录下的文件信息,如下所示。

[root@binghe151 ~]# ll /etc/haproxy/ total 4 -rw-r 

发现/etc/haproxy/目录下存在一个文件。接下来,我们就修改文件,修改后的文件的内容如下所示。

global     log          local2      chroot      /var/lib/haproxy     pidfile     /var/run/     maxconn     4000     user        haproxy     group       haproxy     daemon     stats socket /var/lib/haproxy/stats  defaults     mode                    http     log                     global     option                  httplog     option                  dontlognull     option http-server-close     option                  redispatch     retries                 3     timeout http-request    10s     timeout queue           1m     timeout connect         10s     timeout client          1m     timeout server          1m     timeout http-keep-alive 10s     timeout check           10s     maxconn                 3000  listen  admin_status       bind        stats uri /admin-status       stats auth  admin:admin listen    allmycat_service       bind        mode tcp       option tcplog    option httpchk OPTIONS * HTTP/\r\nHost:\ www       balance    roundrobin       server    mycat_151 :3307 check port 48700 inter 5s rise 2 fall 3       server    mycat_154  check port 48700 inter 5s rise 2 fall 3 listen    allmycat_admin       bind        mode tcp       option tcplog    option httpchk OPTIONS * HTTP/\r\nHost:\ www       balance    roundrobin       server    mycat_151 :3308 check port 48700 inter 5s rise 2 fall 3       server    mycat_154  check port 48700 inter 5s rise 2 fall 3 

接下来,在binghe151服务器和binghe154服务器上启动HAProxy,如下所示。

haproxy -f /etc/haproxy/  

接下来,我们使用mysql命令连接HAProxy监听的虚拟IP和端口来连接Mycat,如下所示。

[root@binghe151 ~]# mysql -umycat -pmycat -h -P3366  mysql: [Warning] Using a password on the command line interface can be insecure. Welcome to the MySQL monitor.  Commands end with ; or \g. Your MySQL connection id is 2 Server version:  MyCat Server (OpenCloudDB)  Copyright (c) 2000, 2019, Oracle and/or its affiliates. All rights reserved.  Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners.  Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.  mysql>  

可以看到,连接Mycat成功。

安装Keepalived

1.安装并配置Keepalived

直接在binghe151和binghe154服务器上输入如下命令安装Keepalived。

yum install keepalived -y 

安装成功后,会在/etc目录下生成一个keepalived目录,接下来,我们在/etc/keepalived目录下配置文件,如下所示。

vim /etc/keepalived/ 
! Configuration Fileforkeepalived vrrp_script chk_http_port {   script "/etc/keepalived/"   interval 2   weight 2 } vrrp_instance VI_1 {   state MASTER    interface eth0    virtual_router_id 51    priority 150    advert_int 1    authentication {   auth_type PASS   auth_pass 1111 } track_script {   chk_http_port } virtual_ipaddress {     dev eth0 scope global } } 
! Configuration Fileforkeepalived vrrp_script chk_http_port {   script "/etc/keepalived/"   interval 2   weight 2 } vrrp_instance VI_1 {   state SLAVE    interface eth0    virtual_router_id 51    priority 120   advert_int 1    authentication {   auth_type PASS   auth_pass 1111 } track_script {   chk_http_port } virtual_ipaddress {     dev eth0 scope global } } 

2.编写检测HAProxy的脚本

接下来,需要分别在binghe151和binghe154服务器上的/etc/keepalived目录下创建脚本,脚本内容如下所示。

#!/bin/bash STARTHAPROXY="/usr/sbin/haproxy -f /etc/haproxy/" STOPKEEPALIVED="/etc/ stop" #STOPKEEPALIVED="/usr/bin/systemctl stop keepalived" LOGFILE="/var/log/" echo "[check_haproxy status]" >> $LOGFILE A=`ps -C haproxy  echo "[check_haproxy status]" >> $LOGFILE date >> $LOGFILE if [ $A -eq 0 ];then    echo $STARTHAPROXY >> $LOGFILE    $STARTHAPROXY >> $LOGFILE 2>&1    sleep 5 fi if [ `ps -C haproxy     exit 0 else    exit 1 fi 

使用如下命令为脚本授予可执行权限。

chmod a+x /etc/keepalived/  

3.启动Keepalived

配置完成后,我们就可以启动Keepalived了,分别在binghe151和binghe154服务器上启动Keepalived,如下所示。

/etc/ start 

查看Keepalived是否启动成功,如下所示。

[root@binghe151 ~]# ps -ef | grep keepalived root       1221      1  0 20:06 ?        00:00:00 keepalived -D root       1222   1221  0 20:06 ?        00:00:00 keepalived -D root       1223   1221  0 20:06 ?        00:00:02 keepalived -D root      93290   3787  0 21:42 pts/0    00:00:00 grep keepalived 
[root@binghe154 ~]# ps -ef | grep keepalived root       1224      1  0 20:06 ?        00:00:00 keepalived -D root       1225   1224  0 20:06 ?        00:00:00 keepalived -D root       1226   1224  0 20:06 ?        00:00:02 keepalived -D root      94636   3798  0 21:43 pts/0    00:00:00 grep keepalived 

可以看到,两台服务器上的Keepalived服务启动成功。

4.验证Keepalived绑定的虚拟IP

接下来,我们分别查看两台服务器上的Keepalived是否绑定了虚拟IP。

[root@binghe151 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN      link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet /8 scope host lo     inet6 ::1/128 scope host         valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:0c:29:10:a1:45 brd ff:ff:ff:ff:ff:ff     inet /24 brd  scope global eth0     inet /32 scope global eth0     inet /24 brd  scope global secondary eth0:1     inet6 fe80::20c:29ff:fe10:a145/64 scope link         valid_lft forever preferred_lft forever 

可以看到如下一行代码。

inet /32 scope global eth0 

说明binghe151服务器上的Keepalived绑定了虚拟IP 。

[root@binghe154 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN      link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet /8 scope host lo     inet6 ::1/128 scope host         valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:50:56:22:2a:75 brd ff:ff:ff:ff:ff:ff     inet  brd  scope global eth0     inet /24 brd  scope global secondary eth0:1     inet6 fe80::250:56ff:fe22:2a75/64 scope link         valid_lft forever preferred_lft forever 

可以看到binghe154服务器上的Keepalived并没有绑定虚拟IP。

5.测试虚拟IP的漂移

如何测试虚拟IP的漂移呢?首先,我们停止binghe151服务器上的Keepalived,如下所示。

/etc/ stop 

接下来,查看binghe154服务器上Keepalived绑定虚拟IP的情况,如下所示。

[root@binghe154 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN      link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet /8 scope host lo     inet6 ::1/128 scope host         valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:50:56:22:2a:75 brd ff:ff:ff:ff:ff:ff     inet  brd  scope global eth0     inet /32 scope global eth0     inet /24 brd  scope global secondary eth0:1     inet6 fe80::250:56ff:fe22:2a75/64 scope link         valid_lft forever preferred_lft forever 

可以看到,在输出的结果信息中,存在如下一行信息。

inet /32 scope global eth0 

说明binghe154服务器上的Keepalived绑定了虚拟IP ,虚拟IP漂移到了binghe154服务器上。

服务器上的Keepalived抢占虚拟IP

接下来,我们启动binghe151服务器上的Keepalived,如下所示。

/etc/ start 

启动成功后,我们再次查看虚拟IP的绑定情况,如下所示。

[root@binghe151 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN      link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet /8 scope host lo     inet6 ::1/128 scope host         valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:0c:29:10:a1:45 brd ff:ff:ff:ff:ff:ff     inet /24 brd  scope global eth0     inet /32 scope global eth0     inet /24 brd  scope global secondary eth0:1     inet6 fe80::20c:29ff:fe10:a145/64 scope link         valid_lft forever preferred_lft forever 
[root@binghe154 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN      link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00     inet /8 scope host lo     inet6 ::1/128 scope host         valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000     link/ether 00:50:56:22:2a:75 brd ff:ff:ff:ff:ff:ff     inet  brd  scope global eth0     inet /24 brd  scope global secondary eth0:1     inet6 fe80::250:56ff:fe22:2a75/64 scope link         valid_lft forever preferred_lft forever 

由于binghe151服务器上配置的Keepalived优先级要高于binghe154服务器上的Keepalived,所以,再次启动binghe151服务器上的Keepalived后,binghe151服务器上的Keepalived会抢占虚拟IP。

配置MySQL主从复制

这里,为了简单,我将binghe154和binghe155服务器上的MySQL配置成主从复制,大家也可以根据实际情况,自行配置其他服务器上MySQL的主从复制(注意:我这里配置的是一主一从模式)。

1.编辑文件

server_id = 154 log_bin = /data/mysql/log/bin_log/mysql-bin binlog-ignore-db=mysql binlog_format= mixed sync_binlog=100 log_slave_updates = 1 binlog_cache_size=32m max_binlog_cache_size=64m max_binlog_size=512m lower_case_table_names = 1 relay_log = /data/mysql/log/bin_log/relay-bin relay_log_index = /data/mysql/log/bin_log/relay-bin.index master_info_repository=TABLE relay-log-info-repository=TABLE relay-log-recovery 
server_id = 155 log_bin = /data/mysql/log/bin_log/mysql-bin binlog-ignore-db=mysql binlog_format= mixed sync_binlog=100 log_slave_updates = 1 binlog_cache_size=32m max_binlog_cache_size=64m max_binlog_size=512m lower_case_table_names = 1 relay_log = /data/mysql/log/bin_log/relay-bin relay_log_index = /data/mysql/log/bin_log/relay-bin.index master_info_repository=TABLE relay-log-info-repository=TABLE relay-log-recovery 

2.同步两台服务器上MySQL的数据

在binghe154服务器上只有一个customer_db数据库,我们使用mysqldump命令导出customer_db数据库,如下所示。

[root@binghe154 ~]# mysqldump  Enter password:  

接下来,我们查看文件。

more  

在文件中,我们可以找到如下信息。

CHANGE MASTER TO MASTER_LOG_FILE='', MASTER_LOG_POS=995; 

说明当前MySQL的二进制日志文件为,二进制日志文件的位置为995。

接下来,我们将文件复制到binghe155服务器上,如下所示。

scp  192.168.175.155:/usr/local/src 

在binghe155服务器上,将脚本导入到MySQL中,如下所示。

mysql -uroot -p < /usr/local/src/ 

此时,完成了数据的初始化。

3.创建主从复制账号

在binghe154服务器的MySQL中,创建用于主从复制的MySQL账号,如下所示。

mysql> CREATE USER 'repl'@'' IDENTIFIED BY 'repl123456'; Query OK, 0 rows affected ( sec)  mysql> ALTER USER 'repl'@'' IDENTIFIED WITH mysql_native_password BY 'repl123456';                            Query OK, 0 rows affected ( sec)  mysql> GRANT REPLICATION SLAVE ON *.* TO 'repl'@''; Query OK, 0 rows affected ( sec)  mysql> FLUSH PRIVILEGES; Query OK, 0 rows affected ( sec) 

4.配置复制链路

登录binghe155服务器上的MySQL,并使用如下命令配置复制链路。

mysql> change master to       > master_host='',      > master_port=3306,      > master_user='repl',      > master_password='repl123456',      > MASTER_LOG_FILE='',      > MASTER_LOG_POS=995; 

其中,MASTER_LOG_FILE='', MASTER_LOG_POS=995 就是在文件中找到的。

5.启动从库

在binghe155服务器的MySQL命令行启动从库,如下所示。

mysql> start slave; 

查看从库是否启动成功,如下所示。

mysql> SHOW slave STATUS \G *************************** 1. row ***************************                Slave_IO_State: Waiting for master to send event                   Master_Host:                    Master_User: binghe152                   Master_Port: 3306                 Connect_Retry: 60               Master_Log_File:            Read_Master_Log_Pos: 1360                Relay_Log_File:                  Relay_Log_Pos: 322         Relay_Master_Log_File:               Slave_IO_Running: Yes             Slave_SQL_Running: Yes #################省略部分输出结果信息################## 

结果显示Slave_IO_Running选项和Slave_SQL_Running选项的值均为Yes,说明MySQL主从复制环境搭建成功。

最后,别忘了在binghe155服务器的MySQL中创建Mycat连接MySQL的用户,如下所示。

CREATE USER 'mycat'@'' IDENTIFIED BY 'mycat'ALTER USER 'mycat'@'' IDENTIFIED WITH mysql_native_password BY 'mycat';  GRANT SELECTINSERTUPDATEDELETE,EXECUTE  ON *.* TO 'mycat'@''; FLUSH PRIVILEGES

配置Mycat读写分离

修改Mycatd的文件,实现binghe154和binghe155服务器上的MySQL读写分离。在Mycat安装目录的conf/zkconf目录下,修改文件,修改后的文件如下所示。

<!DOCTYPE mycat:schema SYSTEM ""> <mycat:schema xmlns:mycat="">     <schema name="shop" checkSQLschema="true" sqlMaxLimit="1000">         <table name="order_master" dataNode="orderdb01,orderdb02,orderdb03,orderdb04" rule="order_master" primaryKey="order_id" autoIncrement="true">             <childTable name="order_detail" joinKey="order_id" parentKey="order_id" primaryKey="order_detail_id" autoIncrement="true"/>         </table>         <table name="order_cart" dataNode="ordb" primaryKey="cart_id"/>         <table name="order_customer_addr" dataNode="ordb" primaryKey="customer_addr_id"/>         <table name="region_info" dataNode="ordb,prodb,custdb" primaryKey="region_id" type="global"/>         <table name="serial" dataNode="ordb" primaryKey="id"/>         <table name="shipping_info" dataNode="ordb" primaryKey="ship_id"/>         <table name="warehouse_info" dataNode="ordb" primaryKey="w_id"/>         <table name="warehouse_proudct" dataNode="ordb" primaryKey="wp_id"/>         <table name="product_brand_info" dataNode="prodb" primaryKey="brand_id"/>         <table name="product_category" dataNode="prodb" primaryKey="category_id"/>         <table name="product_comment" dataNode="prodb" primaryKey="comment_id"/>         <table name="product_info" dataNode="prodb" primaryKey="product_id"/>         <table name="product_pic_info" dataNode="prodb" primaryKey="product_pic_id"/>         <table name="product_supplier_info" dataNode="prodb" primaryKey="supplier_id"/>         <table name="customer_balance_log" dataNode="custdb" primaryKey="balance_id"/>         <table name="customer_inf" dataNode="custdb" primaryKey="customer_inf_id"/>         <table name="customer_level_inf" dataNode="custdb" primaryKey="customer_level"/>         <table name="customer_login" dataNode="custdb" primaryKey="customer_id"/>         <table name="customer_login_log" dataNode="custdb" primaryKey="login_id"/>         <table name="customer_point_log" dataNode="custdb" primaryKey="point_id"/>     </schema>       <dataNode name="mycat" dataHost="binghe151" database="mycat"/>     <dataNode name="ordb" dataHost="binghe152" database="order_db"/>     <dataNode name="prodb" dataHost="binghe153" database="product_db"/>     <dataNode name="custdb" dataHost="binghe154" database="customer_db"/>     <dataNode name="orderdb01" dataHost="binghe152" database="orderdb01"/>     <dataNode name="orderdb02" dataHost="binghe152" database="orderdb02"/>     <dataNode name="orderdb03" dataHost="binghe153" database="orderdb03"/>     <dataNode name="orderdb04" dataHost="binghe153" database="orderdb04"/>       <dataHost balance="1" maxCon="1000" minCon="10" name="binghe151" writeType="0" switchType="1" slaveThreshold="100" dbType="mysql" dbDriver="native">         <heartbeat>select user()</heartbeat>         <writeHost host="binghe51" url="" password="mycat" user="mycat"/>     </dataHost>     <dataHost balance="1" maxCon="1000" minCon="10" name="binghe152" writeType="0" switchType="1" slaveThreshold="100" dbType="mysql" dbDriver="native">         <heartbeat>select user()</heartbeat>         <writeHost host="binghe52" url="" password="mycat" user="mycat"/>     </dataHost>     <dataHost balance="1" maxCon="1000" minCon="10" name="binghe153" writeType="0" switchType="1" slaveThreshold="100" dbType="mysql" dbDriver="native">         <heartbeat>select user()</heartbeat>         <writeHost host="binghe53" url="" password="mycat" user="mycat"/>     </dataHost>     <dataHost balance="1" maxCon="1000" minCon="10" name="binghe154" writeType="0" switchTymycate="1" slaveThreshold="100" dbType="mysql" dbDriver="native">         <heartbeat>select user()</heartbeat>         <writeHost host="binghe54" url="" password="mycat" user="mycat">    <readHost host="binghe55", url="" user="mycat" password="mycat"/>   </writeHost>          <writeHost host="binghe55" url="" password="mycat" user="mycat"/>     </dataHost> </mycat:schema

保存并退出vim编辑器,接下来,初始化Zookeeper中的数据,如下所示。

/usr/local/mycat/bin/  

上述命令执行成功后,会自动将配置同步到binghe151和binghe154服务器上的Mycat的安装目录下的conf目录下的中。

接下来,分别启动binghe151和binghe154服务器上的Mycat服务。

mycat restart 

如何访问高可用环境

此时,整个高可用环境配置完成,上层应用连接高可用环境时,需要连接HAProxy监听的IP和端口。比如使用mysql命令连接高可用环境如下所示。

[root@binghe151 ~]# mysql -umycat -pmycat -h -P3366  mysql: [Warning] Using a password on the command line interface can be insecure. Welcome to the MySQL monitor.  Commands end with ; or \g. Your MySQL connection id is 2 Server version:  MyCat Server (OpenCloudDB)  Copyright (c) 2000, 2019, Oracle and/or its affiliates. All rights reserved.  Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners.  Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.  mysql> show databases; + | DATABASE | + | shop     | + 1 row in set ( sec)  mysql> use shop; Database changed mysql> show tables; + | Tables in shop        | + | customer_balance_log  | | customer_inf          | | customer_level_inf    | | customer_login        | | customer_login_log    | | customer_point_log    | | order_cart            | | order_customer_addr   | | order_detail          | | order_master          | | product_brand_info    | | product_category      | | product_comment       | | product_info          | | product_pic_info      | | product_supplier_info | | region_info           | | serial                | | shipping_info         | | warehouse_info        | | warehouse_proudct     | + 21 rows in set ( sec) 

这里,我只是对binghe154服务器上的MySQL扩展了读写分离环境,大家也可以根据实际情况对其他服务器的MySQL实现主从复制和读写分离,这样,整个高可用环境就实现了HAProxy的高可用、Mycat的高可用、MySQL的高可用、Zookeeper的高可用和Keepalived的高可用。

本文转载自微信公众号「冰河技术」,可以通过以下二维码关注。转载本文请联系冰河技术公众号。

81c6cb9dbef38b4da11281ccb91cdf94.png

【编辑推荐】

【责任编辑:

武晓燕

TEL:(010)68476606】


点赞 0
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值