1.本例使用3台Linux主机,IP地址如下:
点击(此处)折叠或打开
- Server A: 192.168.1.231
- Server B: 192.168.1.232
- Server C: 192.168.1.233
2.根据需要,开启相应 主机 防火墙的相关端口。本次需要用到3台主机,所以开启这3台主机的以下端口:
点击(此处)折叠或打开
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27017 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27018 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27019 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 20000 -j ACCEPT
二、搭建分布式集群
运用MongoDB的复制集(Replica Sets)+分片(Sharding)就能实现MongoDB分布式高可用的集群。
分片(sharding)能够增加更多的机器来应对不断增加的负载和数据,也不影响应用。
复制集(Replica Sets)能确保每个分片节点都具有自动备份、自动故障恢复能力。
1.集群的环境
架构图:
主机设计:
2.配置Replica Sets
创建数据目录:
点击(此处)折叠或打开
- mkdir -p /data/{shard1-1,shard2-1,config} #在serverA上
- mkdir -p /data/{shard1-2,shard2-2,config} #在serverB上
- mkdir -p /data/{shard1-3,shard2-3,config} #在serverC上
2.1 配置 shard1 的 Replica Sets :
#在serverA上启动shard1-1
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-1/ --logpath /data/shard1-1/shard1-1.log --logappend --replSet shard1 --directoryperdb
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-2/ --logpath /data/shard1-2/shard1-2.log --logappend --replSet shard1 --directoryperdb
# 在 serverC 上启动 shard1-3
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-3/ --logpath /data/shard1-3/shard1-3.log --logappend --replSet shard1 --directoryperdb
用 mongo 连接其中一台主机的 27018 端口的 mongod ,初始化复制集 shard1 :
./mongo --port 27018
点击(此处)折叠或打开
- >config={_id:'shard1',members:[
- {_id:0,host:'192.168.1.231:27018',priority:2},
- {_id:1,host:'192.168.1.232:27018',priority:1},
- {_id:2,host:'192.168.1.233:27018',arbiterOnly:true}]
- }
-
- >rs.initiate(config)
2.2 配置shard2 的Replica Sets
#在serverA上启动shard2-1
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-1/ --logpath /data/shard2-1/shard2-1.log --logappend --replSet shard2 --directoryperdb
# 在 serverB 上启动 shard2-2
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-2/ --logpath /data/shard2-2/shard2-2.log --logappend --replSet shard2 --directoryperdb
# 在 serverC 上启动 shard2-3
点击(此处)折叠或打开
- ./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-3/ --logpath /data/shard2-3/shard2-3.log --logappend --replSet shard2 --directoryperdb
用 mongo 连接其中一台主机 ( 建议在 ServerB 上 ) 的 27019 端口的 mongod ,初始化复制集 shard2 :
./ mongo --port 27019
点击(此处)折叠或打开
- >config={_id:'shard2',members:[
- {_id:0,host:'192.168.1.231:27019',arbiterOnly:true},
- {_id:1,host:'192.168.1.232:27019',priority:1},
- {_id:2,host:'192.168.1.233:27019',priority:2}]
- }
-
- >rs.initiate(config)
3. 配置 config server
# 在 3 台主机中分别启动配置服务
点击(此处)折叠或打开
- ./mongod --configsvr --port 20000 --dbpath /data/config/ --logpath /data/config/config.log –replSet configdb --logappend --fork
用 mongo 连接其中一台主机的 20000 端口的 mongod ,初始化复制集 configdb:
./mongo –port 20000
点击(此处)折叠或打开
- >configdb1={_id:'configdb',members:[
- {_id:0,host:'192.168.1.231:20000',priority:3},
- {_id:1,host:'192.168.1.232:20000',priority:1},
- {_id:2,host:'192.168.1.233:20000',priority:2}]
- }
-
- >rs.initiate(configdb1)
4. 配置 router server
# 在 3 台主机中分别运行 mongos 服务
点击(此处)折叠或打开
- ./mongos --configdb configdb/192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend –fork
5. 配置分片( shard cluster )
# 连接到其中一台机器的端口 27017 的 mongos 进程,并切换到 admin 数据库添加分片 shard1 和 shard2 :
./ mongo --port 27017
点击(此处)折叠或打开
- >use admin
- >db.runCommand({addshard:"shard1/192.168.1.231:27018,192.168.1.232:27018,192.168.1.233:27018"})
- >db.runCommand({addshard:"shard2/192.168.1.231:27019,192.168.1.232:27019,192.168.1.233:27019"})
# 激活数据库( work )和集合( status )的分片功能:
点击(此处)折叠或打开
- > db.runCommand({enablesharding:"work"})
- >db.runCommand({shardcollection:"work.status",key:{_id:1}})
6. 验证
# 查看 shard1 的集合 work.status 和 shard2 的文档数几乎均分,且之和等于路由节点下查看的文档数:
./ mongo --port 27018 work
点击(此处)折叠或打开
- >db.status.count()
./ mongo --port 27019 work
点击(此处)折叠或打开
- >db.status.count()
./ mongo work
点击(此处)折叠或打开
- >db.status.count()
# 查看分片的状态 :
点击(此处)折叠或打开
- > printShardingStatus()
三、常见问题
1. 【问题描述】执行初始化副本集时报错:
点击(此处)折叠或打开
- > rs.initiate(config)
- {
- "ok" : 0,
- "errmsg" : "replSetInitiate quorum check failed because not all proposed set members responded affirmatively: 192.168.1.232:27018 failed with No route to host, 192.168.1.233:27018 failed with No route to host",
- "code" : 74,
- "codeName" : "NodeNotFound"
- }
【解决方法】
开启防火墙的相关端口
点击(此处)折叠或打开
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27017 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27018 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 27019 -j ACCEPT
- -A INPUT -m state --state NEW -m tcp -p tcp --dport 20000 -j ACCEPT
2. 【问题描述】初始化副本集报错:
点击(此处)折叠或打开
- > rs.initiate(config)
- {
- "ok" : 0,
- "errmsg" : "This node, 192.168.1.231:27019, with _id 0 is not electable under the new configuration version 1 for replica set shard2",
- "code" : 93,
- "codeName" : "InvalidReplicaSetConfig"
- }
【解决方法】
如果设置主机 A 为仲裁节点,那么不要在 A 主机上执行初始化操作,否则会报上述错误。
3. 【问题描述】启动路由器 mongos 报错:
点击(此处)折叠或打开
- ./mongos --configdb 192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend --forkFailedToParse: mirrored config server connections are not supported; for config server replica sets be sure to use the replica set connection stringtry './mongos --help' for more information
【解决方法】
从 Mongodb3.2 之后,启动 mongos 时需使用副本集名称,否则会报上述错误。例如:
点击(此处)折叠或打开
- ./mongos –configdb 副本集名称/192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend --fork