Mysqld分三层,一个MGM用于管理配置,多个mysqld给应用程序提供访问,多个ndbd提供集群存储。mysqld的作用和一般的mysqld相同,不过加入的对NDB 数据存储的支持。数据是分散存储在每组ndb节点的,每组中ndb节点的数据相同,每组至少有一个ndbd保持运行状态才能访问数据。(组的分配参看NoOfReplicas参数)。ndb节点间保证数据的同步。
下面简单介绍下各个节点功能:
管理节点(MGM)
用于管理mysql集群里面的其他节点,比如配置数据、开启、停止和重启节点。由于该节点起到管理作用,所以需要最先启动该节点。
数据节点
用于保存mysql集群中的数据。
SQL节点
这是用来访问mysql集群数据的节点。对于MySQL集群,客户端节点是使用NDB存储引擎的传统MySQL服务器。
【实验环境】
Rhel6.3_x64
【实验架构】
【IP分配】
数据库管理节点: 192.168.30.113
数据库数据节点: 192.168.30.114 192.168.30.115
数据库sql节点: 192.168.30.114 192.168.30.115
注:实际生产环境中搭建mysql集群至少需要5台机器,由于是实验环境,这里我将数据节点和sql节点搭建在相同的两台服务器上。
【实验步骤】
一、管理节点的配置与安装
1、管理节点安装
[root@node1 src]# groupadd mysql
[root@node1 src]# useradd mysql -g mysql
[root@node1 src]# tar xf mysql-cluster-gpl-7.1.26-linux-x86_64-glibc23.tar.gz -C /usr/local/
[root@node1 src]# cd /usr/local/
[root@node1 local]# mv mysql-cluster-gpl-7.1.26-linux-x86_64-glibc23/ mysql
[root@node1 mysql]# scripts/mysql_install_db --user=mysql
2、管理节点配置
[root@node1 mysql]# mkdir /var/lib/mysql-cluster
[root@node1 mysql]# cd /var/lib/mysql-cluster/
[root@node1 mysql-cluster]# vim config.ini #手动创建并添加以下内容
[NDBD DEFAULT]
NoOfReplicas = 2
DataMemory = 80M
IndexMemory = 18M
[NDB_MGMD]
#Id = 1 // Id 可以不设置,系统会自动分配
Hostname = 192.168.30.113 // 管理节点IP
datadir = /usr/local/mysql/logs
[NDBD]
#Id = 2
Hostname = 192.168.30.114
datadir = /usr/local/mysql/data/ // 这里设置的路径应与my.cnf中的设置一样
[NDBD]
#Id = 3
Hostname = 192.168.30.115
datadir = /usr/local/mysql/data/
[MYSQLD]
[MYSQLD]
[root@node1 ~]# mkdir -p /usr/local/mysql/logs
二、安装配置数据节点
1、数据节点安装
[root@node2 ~]# groupadd mysql
[root@node2 ~]# useradd mysql -g mysql
[root@node2 ~]# cd /usr/src/
[root@node2 src]# tar xf mysql-cluster-gpl-7.1.26-linux-x86_64-glibc23.tar.gz -C /usr/local/
[root@node2 src]# cd /usr/local/
[root@node2 local]# mv mysql-cluster-gpl-7.1.26-linux-x86_64-glibc23/ mysql
[root@node2 local]# chown -R mysql.mysql mysql
[root@node2 local]# cd mysql/
[root@node2 mysql]# scripts/mysql_install_db --user=mysql
[root@node2 mysql]# cp support-files/my-medium.cnf /etc/my.cnf
[root@node2 mysql]# cp support-files/mysql.server /etc/init.d/mysqld
[root@node2 mysql]# vim /etc/my.cnf # 手动添加以下内容
datadir = /usr/local/mysql/data/
ndbcluster
ndb-connectstring = 192.168.30.113
[ndbd]
connect-string = 192.168.30.113
[mysql_cluster]
ndb-connectstring = 192.168.30.113
[ndb_mgm]
connect-string = 192.168.30.113
[ndb_mgmd]
config-file = /var/lib/mysql-cluster/config.ini //指定管理节点配置文件路径
三、启动服务
1、在管理节点上启动相关服务
[root@node1 ~]# /usr/local/mysql/bin/ndb_mgmd -f /var/lib/mysql-cluster/config.ini
[root@node1 ~]# netstat -nultp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:1186 0.0.0.0:* LISTEN 1372/ndb_mgmd
2、在数据节点启动相关服务
[root@node2 ~]# /usr/local/mysql/bin/ndbd --initial
2013-09-02 18:54:39 [ndbd] INFO -- Angel connected to '192.168.30.113:1186'
2013-09-02 18:54:39 [ndbd] INFO -- Angel allocated nodeid: 2
[root@node2 ~]# netstat -nultp
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 192.168.30.114:42629 0.0.0.0:* LISTEN 1440/ndbd
tcp 0 0 192.168.30.114:53542 0.0.0.0:* LISTEN 1440/ndbd
tcp 0 0 192.168.30.114:55500 0.0.0.0:* LISTEN 1440/ndbd
[root@node2 mysql]# service mysqld start
Starting MySQL.. ERROR! Manager of pid-file quit without updating file.
解决办法:
[root@node2 mysql]# scripts/mysql_install_db --user=mysql--datadir=/usr/local/mysql/data
[root@node2 mysql]# service mysqld start
Starting MySQL.. SUCCESS!
[root@node2 mysql]# netstat -nutlp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:3306 0.0.0.0:* LISTEN 2336/mysqld
四、测试
1、到管理节点查看下相关服务状态
[root@node1 ~]# cd /usr/local/mysql/bin
[root@node1 bin]# ./ndb_mgm
-- NDB Cluster -- Management Client --
ndb_mgm> show
Connected to Management Server at: localhost:1186
Cluster Configuration
---------------------
[ndbd(NDB)]2 node(s)
id=2@192.168.30.114 (mysql-5.1.67 ndb-7.1.26, Nodegroup: 0, Master)
id=3@192.168.30.115 (mysql-5.1.67 ndb-7.1.26, Nodegroup: 0)
[ndb_mgmd(MGM)]1 node(s)
id=1@192.168.30.113 (mysql-5.1.67 ndb-7.1.26)
[mysqld(API)]2 node(s)
id=4@192.168.30.114 (mysql-5.1.67 ndb-7.1.26)
id=5@192.168.30.115 (mysql-5.1.67 ndb-7.1.26)
可以看到这里的数据节点、管理节点、sql节点都是正常的.
2、现在我们在其中一个数据节点上进行相关数据库的创建,然后到另外一个数据节点上看看数据是否同步
[root@node2 mysql]# /usr/local/mysql/bin/mysql -uroot -p
mysql> show databases;
+--------------------+
| Database |
+--------------------+
| information_schema |
| mysql |
| ndb_2_fs |
| ndbinfo |
| test |
+--------------------+
5 rows in set (0.09 sec)
mysql> use test;
Database changed
mysql> CREATE TABLE cluster(id INT) ENGINE=NDB; //这里必须指定数据库表的引擎为NDB,否则同步失败
Query OK, 0 rows affected (0.48 sec)
mysql> INSERT INTO cluster values(1);
Query OK, 1 row affected (0.07 sec)
mysql> SELECT * FROM cluster;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.00 sec)
现在到另外一个数据节点查看下是否同步过来
[root@node3 mysql]# /usr/local/mysql/bin/mysql -uroot -p
mysql> use test;
Database changed
mysql> SHOW TABLES;
+----------------+
| Tables_in_test |
+----------------+
| cluster |
+----------------+
1 row in set (0.14 sec)
mysql> SELECT * FROM cluster;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.04 sec)
可以看到数据已经同步过来了,至此mysql集群搭建完毕
3、下面再做一下宕机测试,即停掉192.168.30.114这台机器的数据节点,看看mysql工作是否正常
[root@node2 bin]# ./ndb_mgm
-- NDB Cluster -- Management Client --
ndb_mgm> show
Connected to Management Server at: 192.168.30.113:1186
Cluster Configuration
---------------------
[ndbd(NDB)]2 node(s)
id=2@192.168.30.114 (mysql-5.1.67 ndb-7.1.26, Nodegroup: 0, Master)
id=3@192.168.30.115 (mysql-5.1.67 ndb-7.1.26, Nodegroup: 0)
[ndb_mgmd(MGM)]1 node(s)
id=1@192.168.30.113 (mysql-5.1.67 ndb-7.1.26)
[mysqld(API)]2 node(s)
id=4@192.168.30.114 (mysql-5.1.67 ndb-7.1.26)
id=5@192.168.30.115 (mysql-5.1.67 ndb-7.1.26)
从上面可以看到192.168.30.114这个节点是作为主节点的,现在停下这个节点
[root@node2 bin]# netstat -nutlp
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 192.168.30.114:42629 0.0.0.0:* LISTEN 1440/ndbd
[root@node2 bin]# kill 1440
[root@node3 bin]# ./ndb_mgm
-- NDB Cluster -- Management Client --
ndb_mgm> show
Connected to Management Server at: 192.168.30.113:1186
Cluster Configuration
---------------------
[ndbd(NDB)]2 node(s)
id=2 (not connected, accepting connect from 192.168.30.114)
id=3@192.168.30.115 (mysql-5.1.67 ndb-7.1.26, Nodegroup: 0, Master)
[ndb_mgmd(MGM)]1 node(s)
id=1@192.168.30.113 (mysql-5.1.67 ndb-7.1.26)
[mysqld(API)]2 node(s)
id=4@192.168.30.114 (mysql-5.1.67 ndb-7.1.26)
id=5@192.168.30.115 (mysql-5.1.67 ndb-7.1.26)
可以看到192.168.30.114这个节点已经连接不上,而192.168.30.115这个节点成了主节点
现在在192.168.30.115这个节点上插入数据,接着恢复192.168.30.114这个节点,看数据能否同步过来
在192.168.30.115是上操作
[root@node3 bin]# /usr/local/mysql/bin/mysql -uroot -p
mysql> USE test;
Database changed
mysql> CREATE TABLE cluster1(id int)ENGINE=NDB;
Query OK, 0 rows affected (0.43 sec)
mysql> SHOW TABLES;
+----------------+
| Tables_in_test |
+----------------+
| cluster |
| cluster1 |
+----------------+
2 rows in set (0.06 sec)
mysql> INSERT INTO cluster1 values(1);
Query OK, 1 row affected (0.00 sec)
mysql> SELECT * FROM cluster1;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.00 sec)
恢复节点192.168.30.115,看数据是否会同步过来
开启服务:
[root@node2 bin]# /usr/local/mysql/bin/ndbd --initial
[root@node2 bin]# /usr/local/mysql/bin/mysql -uroot -p
mysql> USE test;
Database changed
mysql> SHOW TABLES;
+----------------+
| Tables_in_test |
+----------------+
| cluster |
| cluster1 |
+----------------+
2 rows in set (0.32 sec)
mysql> SELECT * FROM cluster1;
+------+
| id |
+------+
| 1 |
+------+
1 row in set (0.12 sec)
可以看到数据同步过来了,至此实验完成!
注意:
从上面的实验可以看到,实际上mysql集群并不像其他集群系统那样能提供一个唯一的虚拟IP供外部程序调用。我们知道数据节点上的数据都是实时同步的,有人可能会说让外部程序调用任一数据节点不就可以了吗?反正数据是一致调用哪一个节点都一样。但这样是会有问题的万一这个节点断开,程序将访问不到数据,这时候也无法自动恢复过来。那么这种情况应该如何是好呢?
解决办法就是:在前端加多一个调度器,提供一个虚拟IP供外部程序调用,这个时候即使哪天某一台机器宕机,也不会造成过大影响。但是此时,这台调度器也将成为整个系统的瓶颈。解决的办法就是对调度器做双机热备!当主的调度器宕机,则启用备用调度器继续工作。