分片概念
分片(sharding)是一种跨多台机器分布数据的方法, MongoDB使用分片来支持具有非常大的数据集 和高吞吐量操作的部署。 换句话说:分片(sharding)是指将数据拆分,将其分散存在不同的机器上的过程。有时也用分区 (partitioning)来表示这个概念。将数据分散到不同的机器上,不需要功能强大的大型计算机就可以储存 更多的数据,处理更多的负载。 具有大型数据集或高吞吐量应用程序的数据库系统可以会挑战单个服务器的容量。例如,高查询率会耗 尽服务器的CPU容量。工作集大小大于系统的RAM会强调磁盘驱动器的I / O容量。 有两种解决系统增长的方法:垂直扩展和水平扩展。 垂直扩展意味着增加单个服务器的容量,例如使用更强大的CPU,添加更多RAM或增加存储空间量。可 用技术的局限性可能会限制单个机器对于给定工作负载而言足够强大。此外,基于云的提供商基于可用 的硬件配置具有硬性上限。结果,垂直缩放有实际的最大值。 水平扩展意味着划分系统数据集并加载多个服务器,添加其他服务器以根据需要增加容量。虽然单个机 器的总体速度或容量可能不高,但每台机器处理整个工作负载的子集,可能提供比单个高速大容量服务 器更高的效率。扩展部署容量只需要根据需要添加额外的服务器,这可能比单个机器的高端硬件的总体 成本更低。权衡是基础架构和部署维护的复杂性增加。 MongoDB支持通过分片进行水平扩展
分片集群包含的组件
MongoDB分片群集包含以下组件:
-
分片(存储):每个分片包含分片数据的子集。 每个分片都可以部署为副本集。
-
mongos(路由):mongos充当查询路由器,在客户端应用程序和分片集群之间提供接口。
-
config servers(“调度”的配置):配置服务器存储群集的元数据和配置设置。 从MongoDB 3.4开始,必须将配置服务器部署为副本集(CSRS)。
下图描述了分片集群中组件的交互:
MongoDB在集合级别对数据进行分片,将集合数据分布在集群中的分片上。
-
27018 if mongod is a shard member;
-
27019 if mongod is a config server member
分片集群架构目标
两个分片节点副本集(3+3)+一个配置节点副本集(3)+两个路由节点(2),共11个服务节点。
分片(存储)节点副本集的创建
第一套副本集
准备存放数据和日志的目录:
#-----------myshardrs01
mkdir -p /mongodb/sharded_cluster/myshardrs01_27018/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27018/data/db \ &mkdir -p /mongodb/sharded_cluster/myshardrs01_27118/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27118/data/db \ &mkdir -p /mongodb/sharded_cluster/myshardrs01_27218/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27218/data/db
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
myshardrs01_27018:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs01_27018/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.pid"
net:
#服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#bindIp
#绑定的端口
port: 27018
replication:
#副本集的名称
replSetName: myshardrs01
sharding:
#分片角色
clusterRole: shardsvr
sharding.clusterRole:
Value | Description |
---|---|
configsvr | r Start this instance as a config server. The instance starts on port 27019 by default. |
shardsvr | Start this instance as a shard. The instance starts on port 27018 by default. |
设置sharding.clusterRole需要mongod实例运行复制。 要将实例部署为副本集成员,请使用 replSetName设置并指定副本集的名称。
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
myshardrs01_27118:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs01_27118/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27118
replication:
replSetName: myshardrs01
sharding:
clusterRole: shardsvr
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
myshardrs01_27218:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs01_27218/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.pid"
net:
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27218
replication:
replSetName: myshardrs01
sharding:
clusterRole: shardsvr
启动第一套副本集:一主一副本一仲裁
依次启动三个mongod服务:
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
查看服务是否启动:
ps -ef|grep mongo
(1)初始化副本集和创建主节点
使用客户端命令连接任意一个节点,但这里尽量要连接主节点:
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27018
执行初始化副本集命令:rs.initiate()
查看副本集情况(节选内容): rs.status()
(2)主节点配置查看:rs.conf()
(3)添加副本节点:rs.add("192.168.0.155:27118")
(4)添加仲裁节点:rs.addArb("192.168.0.155:27218")
查看副本集的配置情况:rs.conf()
第二套副本集
准备存放数据和日志的目录
#-----------myshardrs01
mkdir -p /mongodb/sharded_cluster/myshardrs02_27318/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27318/data/db \ &mkdir -p /mongodb/sharded_cluster/myshardrs02_27418/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27418/data/db \ &mkdir -p /mongodb/sharded_cluster/myshardrs02_27518/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27518/data/db
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
myshardrs01_27018:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs02_27318/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.pid"
net:
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27318
replication:
replSetName: myshardrs02
sharding:
clusterRole: shardsvr
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
myshardrs02_27418:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs02_27418/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27418
replication:
replSetName: myshardrs02
sharding:
clusterRole: shardsvr
新建或修改配置文件:
vim /mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
myshardrs02_27518:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myshardrs02_27518/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27518
replication:
replSetName: myshardrs02
sharding:
clusterRole: shardsvr
启动第二套副本集:一主一副本一仲裁
依次启动三个mongod服务:
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
查看服务是否启动:ps -ef |grep mongod
(1)初始化副本集和创建主节点:
使用客户端命令连接任意一个节点,但这里尽量要连接主节点
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27318
执行初始化副本集命令:rs.initiate()
查看副本集情况(节选内容):rs.status()
(2)主节点配置查看:rs.conf()
(3)添加副本节点:rs.add("192.168.0.155:27418")
(4)添加仲裁节点:rs.addArb("192.168.0.155:27518")
查看副本集的配置情况: rs.conf()
rs.status()
配置节点副本集的创建
第一步:准备存放数据和日志的目录:
#-----------configrs#建立数据节点data和日志目录
mkdir -p /mongodb/sharded_cluster/myconfigrs_27019/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27019/data/db \ &mkdir -p /mongodb/sharded_cluster/myconfigrs_27119/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27119/data/db \ &mkdir -p /mongodb/sharded_cluster/myconfigrs_27219/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27219/data/db
新建或修改配置文件:
vim /mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
myconfigrs_27019:
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myconfigrs_27019/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27019
replication:
replSetName: myconfigrs
sharding:
clusterRole: configsvr
新建或修改配置文件:
vim /mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
myconfigrs_27119
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myconfigrs_27119/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27119
replication:
replSetName: myconfigrs
sharding:
clusterRole: configsvr
新建或修改配置文件:
vim /mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
myconfigrs_27219
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
storage:
#mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
dbPath: "/mongodb/sharded_cluster/myconfigrs_27219/data/db"
journal:
#启用或禁用持久性日志以确保数据文件保持有效和可恢复。
enabled: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.pid"
net:
#服务实例绑定所有IP
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#绑定的端口
port: 27219
replication:
replSetName: myconfigrs
sharding:
clusterRole: configsvr
启动配置副本集:一主两副本
依次启动三个mongod服务:
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
[root@localhost /]# /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
查看服务是否启动: ps -ef |grep mongod
(1)初始化副本集和创建主节点:
使用客户端命令连接任意一个节点,但这里尽量要连接主节点:
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27019
执行初始化副本集命令: rs.initiate()
查看副本集情况(节选内容):rs.status()
(2)主节点配置查看:rs.conf()
(3)添加两个副本节点:rs.add("192.168.0.155:27119")
rs.add("192.168.0.155:27219")
查看副本集的配置情况:rs.conf()
rs.status()
路由节点的创建和操作
第一个路由节点的创建和连接
第一步:准备存放数据和日志的目录:
#-----------mongos01
mkdir -p /mongodb/sharded_cluster/mymongos_27017/log
mymongos_27017节点:
新建或修改配置文件:
vi /mongodb/sharded_cluster/mymongos_27017/mongos.conf
mongos.conf
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/mymongos_27017/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: /mongodb/sharded_cluster/mymongos_27017/log/mongod.pid"
net:
#服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#bindIp
#绑定的端口
port: 27017
sharding:
#指定配置节点副本集
configDB: myconfigrs/192.168.0.155:27019,192.168.0.155:27119,192.168.0.155:27219
启动mongos:
/usr/local/mongodb/bin/mongos -f/mongodb/sharded_cluster/mymongos_27017/mongos.conf
客户端登录mongos,
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27017
此时,写不进去数据,如果写数据会报错:
mongos> use aadb
switched to db aadb
mongos> db.aa.insert({aa:"aa"})
WriteCommandError({
"ok" : 0,
"errmsg" : "unable to initialize targeter for write op for collection aabb.aa :: caused by :: Database aabb not found :: caused by :: No shards found",
"code" : 70,
"codeName" : "ShardNotFound",
"operationTime" : Timestamp(1660105433, 2),
"$clusterTime" : {
"clusterTime" : Timestamp(1660105433, 2),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
})
原因: 通过路由节点操作,现在只是连接了配置节点,还没有连接分片数据节点,因此无法写入业务数据。
properties配置文件参考:
logpath=/mongodb/sharded_cluster/mymongos_27017/log/mongos.log
logappend=true
bind_ip_all=true
port=27017
fork=true
configdb=myconfigrs/192.168.0.155:27019,192.168.0.155:27119,192.168.0.155:27219
在路由节点上进行分片配置操作
使用命令添加分片:
(1)添加分片: sh.addShard("IP:Port")
将第一套分片副本集添加进来:
sh.addShard("myshardrs01/192.168.0.155:27018,192.168.0.155:27118,192.168.0.155:27218")
mongos> sh.addShard("myshardrs01/192.168.0.155:27018,192.168.0.155:27118,192.168.0.155:27218")
{
"shardAdded" : "myshardrs01",
"ok" : 1,
"operationTime" : Timestamp(1660105939, 5),
"$clusterTime" : {
"clusterTime" : Timestamp(1660105939, 5),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
继续将第二套分片副本集添加进来:
sh.addShard("myshardrs02/192.168.0.155:27318,192.168.0.155:27418,192.168.0.155:27518")
mongos> sh.addShard("myshardrs02/192.168.0.155:27318,192.168.0.155:27418,192.168.0.155:27518")
{
"shardAdded" : "myshardrs02",
"ok" : 1,
"operationTime" : Timestamp(1660105973, 4),
"$clusterTime" : {
"clusterTime" : Timestamp(1660105973, 4),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
查看分片状态:
mongos> sh.status()
--- Sharding Status ---
sharding version: {
"_id" : 1,
"minCompatibleVersion" : 5,
"currentVersion" : 6,
"clusterId" : ObjectId("62f32fec0a6e5dab22c7f813")
}
shards:
{ "_id" : "myshardrs01", "host" : "myshardrs01/192.168.0.155:27018,192.168.0.155:27118", "state" : 1 }
{ "_id" : "myshardrs02", "host" : "myshardrs02/192.168.0.155:27318,192.168.0.155:27418", "state" : 1 }
active mongoses:
"4.0.10" : 1
autosplit:
Currently enabled: yes
balancer:
Currently enabled: yes
Currently running: no
Failed balancer rounds in last 5 attempts: 0
Migration Results for the last 24 hours:
No recent migrations
databases:
{ "_id" : "config", "primary" : "config", "partitioned" : true }
如果添加分片失败,需要先手动移除分片,检查添加分片的信息的正确性后,再次添加分片。 移除分片:
use admin
db.runCommand( { removeShard: "myshardrs02" } )
注意:如果只剩下最后一个shard,是无法删除的 移除时会自动转移分片数据,需要一个时间过程。 完成后,再次执行删除分片命令才能真正删除
(2)开启分片功能:sh.enableSharding("库名")、sh.shardCollection("库名.集合名",{"key":1}) 在mongos上的articledb数据库配置sharding:
mongos> sh.enableSharding("articledb")
{
"ok" : 1,
"operationTime" : Timestamp(1660106206, 6),
"$clusterTime" : {
"clusterTime" : Timestamp(1660106206, 6),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
(3)集合分片
对集合分片,你必须使用 sh.shardCollection() 方法指定集合和分片键。
sh.shardCollection(namespace, key, unique)
参数:
Parameter | Type | Description |
---|---|---|
namespace | string | 要(分片)共享的目标集合的命名空间,格式: <database>.<collection> |
key | document | 用作分片键的索引规范文档。shard键决定MongoDB如何在 shard之间分发文档。除非集合为空,否则索引必须在shard collection命令之前存在。如果集合为空,则MongoDB在对集合 进行分片之前创建索引,前提是支持分片键的索引不存在。简单 的说:由包含字段和该字段的索引遍历方向的文档组成。 |
unique | boolean | 当值为true情况下,片键字段上会限制为确保是唯一索引。哈希 策略片键不支持唯一索引。默认是false。 |
对集合进行分片时,你需要选择一个 片键(Shard Key) , shard key 是每条记录都必须包含的,且建立了 索引的单个字段或复合字段,MongoDB按照片键将数据划分到不同的 数据块 中,并将 数据块 均衡地分布 到所有分片中.为了按照片键划分数据块,MongoDB使用 基于哈希的分片方式(随机平均分配)或者基 于范围的分片方式(数值大小分配) 。 用什么字段当片键都可以,如:nickname作为片键,但一定是必填字段
分片规则一:哈希策略
对于 基于哈希的分片 ,MongoDB计算一个字段的哈希值,并用这个哈希值来创建数据块. 在使用基于哈希分片的系统中,拥有”相近”片键的文档 很可能不会 存储在同一个数据块中,因此数据的分 离性更好一些. 使用nickname作为片键,根据其值的哈希值进行数据分片
查看分片状态:sh.status()
分片规则二:范围策略
对于 基于范围的分片 ,MongoDB按照片键的范围把数据分成不同部分.假设有一个数字的片键:想象一个从负无穷到正无穷的直线,每一个片键的值都在直线上画了一个点.MongoDB把这条直线划分为更短的不重叠的片段,并称之为 数据块 ,每个数据块包含了片键在一定范围内的数据.
在使用片键做范围划分的系统中,拥有”相近”片键的文档很可能存储在同一个数据块中,因此也会存储在同一个分片中.
如使用作者年龄字段作为片键,按照点赞数的值进行分片:
mongos> sh.shardCollection("articledb.author",{"age":1})
{
"collectionsharded" : "articledb.author",
"collectionUUID" : UUID("ba4d9c5a-172a-4108-b852-caebdae5b1a2"),
"ok" : 1,
"operationTime" : Timestamp(1660107375, 13),
"$clusterTime" : {
"clusterTime" : Timestamp(1660107375, 13),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
-
一个集合只能指定一个片键,否则报错。
-
一旦对一个集合分片,分片键和分片值就不可改变。 如:不能给集合选择不同的分片键、不能更新 分片键的值。
-
根据age索引进行分配数据。
查看分片状态:
显示集群的详细信息:
mongos> db.printShardingStatus()
查看均衡器是否工作(需要重新均衡时系统才会自动启动,不用管它):
mongos> sh.isBalancerRunning()
false
查看当前Balancer状态:
mongos> sh.getBalancerState()
true
分片后插入数据测试
测试一(哈希规则):登录mongs后,向comment循环插入1000条数据做测试:
mongos> use articledb
mongos>for(var i=1;i<=1000;i++){db.comment.insert({_id:i+"",nickname:"BoBo"+i})}WriteResult({ "nInserted" : 1 })
mongos> db.comment.count()
提示:js的语法,因为mongo的shell是一个JavaScript的shell。
注意:从路由上插入的数据,必须包含片键,否则无法插入。
第一个分片副本集:
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27018
myshardrs01:PRIMARY> use articledb
switched to db articledb
myshardrs01:PRIMARY> db.comment.count()
507
第二个分片副本集:
/usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27318
myshardrs02:PRIMARY> use articledb
switched to db articledb
myshardrs02:PRIMARY> db.comment.count()
493
000条数据近似均匀的分布到了2个shard上。是根据片键的哈希值分配的。
这种分配方式非常易于水平扩展:一旦数据存储需要更大空间,可以直接再增加分片即可,同时提升了性能。
使用db.comment.stats()查看单个集合的完整情况,mongos执行该命令可以查看该集合的数据分片的情况。
使用sh.status()查看本库内所有集合的分片信息。
测试二(范围规则):
登录mongs后,向comment循环插入1000条数据做测试:
mongos> use articledb
mongos> for(var i=1;i<=20000;i++){db.author.save({"name":"BoBoBoBoBoBoBoBo"+i,"age":NumberInt(i%120)})}WriteResult({ "nInserted" : 1 })
mongos> db.comment.count()
20000
数据分布比较均匀
如果查看状态发现没有分片,则可能是由于以下原因造成了:
1)系统繁忙,正在分片中。
2)数据块(chunk)没有填满,默认的数据块尺寸(chunksize)是64M,填满后才会考虑向其他片的数据块填充数据,因此,为了测试,可以将其改小,这里改为1M,操作如下:
use config
db.settings.save( { _id:"chunksize", value: 1 } )
测试完改回来:
db.settings.save( { _id:"chunksize", value: 64 } )
要先改小,再设置分片。为了测试,可以先删除集合,重新建立集合的分片策略,再插入数据测 试即可。
再增加一个路由节点
新建文件夹
#-----------mongos02
mkdir -p /mongodb/sharded_cluster/mymongos_27117/log
新建或修改配置文件:
vi /mongodb/sharded_cluster/mymongos_27117/mongos.conf
mongos.conf
systemLog:
#MongoDB发送所有日志输出的目标指定为文件
destination: file
#mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
path: "/mongodb/sharded_cluster/mymongos_27117/log/mongod.log"
#当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
logAppend: true
processManagement:
#启用在后台运行mongos或mongod进程的守护进程模式。
fork: true
#指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
pidFilePath: /mongodb/sharded_cluster/mymongos_27117/log/mongod.pid"
net:
#服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
#bindIpAll: true
#服务实例绑定的IP
bindIp: localhost,192.168.0.155
#bindIp
#绑定的端口
port: 27117
sharding:
configDB: myconfigrs/192.168.0.155:27019,192.168.0.155:27119,192.168.0.155:27219
启动mongos2:
/usr/local/mongodb/bin/mongos -f/mongodb/sharded_cluster/mymongos_27117/mongos.conf
Compass连接分片集群
SpringDataMongDB连接分片集群
spring:
#数据源配置
data:
mongodb:
# 主机地址
host: 192.168.0.155
# 数据库
# database: aeticledb
# 默认端口是27017
# port: 27016
#也可以使用uri连接
#uri: mongodb://192.168.40.134:27017/articledb
# 副本集的连接字符串
uri: mongodb://192.168.0.155:27017,192.168.0.155:27117/articledb
清除所有的节点数据
如果在搭建分片的时候有操作失败或配置有问题,需要重新来过的,可以进行如下操作: 第一步:查询出所有的测试服务节点的进程:
[root@localhost ~]# ps -ef|grep mongo
root 25641 1 0 11:34 ? 00:00:50 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
root 26219 1 0 11:34 ? 00:00:49 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
root 26480 1 0 11:34 ? 00:00:29 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
root 54003 1 0 11:51 ? 00:01:01 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
root 54220 1 0 11:51 ? 00:01:02 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
root 54377 1 0 11:51 ? 00:00:27 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
root 69934 1 0 12:00 ? 00:00:55 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
root 70177 1 0 12:00 ? 00:00:53 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
root 70380 1 0 12:00 ? 00:00:55 /usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
root 93209 81756 0 12:11 pts/2 00:00:00 /usr/local/mongodb/bin/mongo --host 192.168.0.155 --port 27019
root 126937 1 0 12:21 ? 00:00:23 /usr/local/mongodb/bin/mongos -f/mongodb/sharded_cluster/mymongos_27017/mongos.conf
root 158948 1542 0 12:31 pts/0 00:00:00 /usr/local/mongodb/bin/mongo --port 27018
root 265797 262814 0 13:03 pts/4 00:00:00 /usr//local/mongodb/bin/mongo --port 27318
root 497273 1 0 13:49 ? 00:00:07 /usr/local/mongodb/bin/mongos -f/mongodb/sharded_cluster/mymongos_27117/mongos.conf
root 1136314 81756 0 15:59 pts/2 00:00:00 grep --color=auto mongo
根据上述的进程编号,依次中断进程:
kill -2 进程编号
第二步:清除所有的节点的数据:
rm -rf /mongodb/sharded_cluster/myconfigrs_27019/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myconfigrs_27119/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myconfigrs_27219/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27018/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27118/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27218/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27318/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27418/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27518/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/mymongos_27017/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/mymongos_27117/data/db/*.*
第三步:查看或修改有问题的配置
第四步:依次启动所有节点,不包括路由节点
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
第五步:对两个数据分片副本集和一个配置副本集进行初始化和相关配置
第六步:检查路由mongos的配置,并启动mongos
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/mymongos_27017/mongos.cfg
/usr/local/mongodb/bin/mongod -f/mongodb/sharded_cluster/mymongos_27017/mongos.cfg
第七步:mongo登录mongos,在其上进行相关操作
/usr/local/mongodb/bin/mongos -f/mongodb/sharded_cluster/mymongos_27117/mongos.conf .......