mongodb 5.0.4 分片集群部署

一、MongoDB 背景

MongoDB 是一款功能完善的分布式文档数据库,是一款非常出名的 NoSQL 数据库。当前国内使用 Mongodb 的大型实践越来越多,MongoDB 为我司提供了重要的数据库存储服务,支撑着每天近千万级 QPS 峰值读写,数万亿级数据量存储服务。

MongoDB 在高性能、动态扩缩容、高可用、易部署、易使用、海量数据存储等方面拥有很大优势。近些年,MongoDB 在 DB-Engines 流行度排行榜稳居榜单 Top5 ,且历年得分是持续增长的,具体如下图所示:

在这里插入图片描述

DB-Engines 是一个对数据库管理系统受欢迎程度进行排名的网站。排名分数:MongoDB 是 Top5 内的唯一的非关系型数据库。我们今天从比较高的层面来观摩学习下 MongoDB 的几种高可用架构。通过观察这几种架构我们甚至能体会到通用的分布式架构的一个演进方向。

二、高可用架构

高可用性 HA(High Availability)指的是缩短因正常运维或者非预期故障而导致的停机时间,提高系统可用性。

那么问题来了,都说自己的服务高可用,高可用能量化衡量吗?能不能比出个高低呢?

可以,这里引出一个 SLA 的概念。SLA 是 Service Level Agreement 的缩写,中文含义:服务等级协议。SLA 就是用来量化可用性的协议,在双方认可的前提条件下,服务提供商与用户间定义的一种双方认可的协定。SLA 是判定服务质量的重要指标。

问题来了,SLA 是怎么量化的?其实就是按照停服时间算的。怎么算的?举个例子:

1 年 = 365 天 = 8760 小时
99.9 停服时间:8760 * 0.1% = 8760 * 0.001 = 8.76小时
99.99 停服时间:8760 * 0.0001 = 0.876 小时 = 52.6 分钟
99.999 停服时间:8760 * 0.00001 = 0.0876 小时 = 5.26分钟

也就是说,如果一家公有云厂商提供对象存储的服务,SLA 协议指明提供 5 个 9 的高可用服务,那就要保证一年的时间内对象存储的停服时间少于 5.26 分钟,如果超过这个时间,就算违背了 SLA 协议,可以找公有云提出赔偿。

说回高可用的话题,大白话就是,无论出啥事都不能让承载的业务受影响,这就是高可用。

前面我们说过,无论是数据的高可靠,还是组件的高可用全都是一个解决方案:冗余。我们通过多个组件和备份导致对外提供一致性和不中断的服务。冗余是根本,但是怎么来使用冗余则各有不同。

以下我们就按照不同的冗余处理策略,可以总结出 MongoDB 几个特定的模式,这个也是通用性质的架构,在其他的分布式系统也是常见的。

我们从 Mongo 的三种高可用模式逐一介绍,这三种模式也代表了通用分布式系统下高可用架构的进化史,分别是 Master-Slave,Replica Set,Sharding 模式。

Master-Slave 模式

Mongodb 提供的第一种冗余策略就是 Master-Slave 策略,这个也是分布式系统最开始的冗余策略,这种是一种热备策略。

Master-Slave 架构一般用于备份或者做读写分离,一般是一主一从设计和一主多从设计。

Master-Slave 由主从角色构成:

Master ( 主 )

可读可写,当数据有修改的时候,会将 Oplog 同步到所有连接的Salve 上去。

Slave ( 从 )

只读,所有的 Slave 从 Master 同步数据,从节点与从节点之间不感知。

如图:

在这里插入图片描述

通过上面的图,这是一种典型的扇形结构。

Master-Slave 对读写分离的思考
Master 对外提供读写服务,有多个 Slave 节点的话,可以用 Slave 节点来提供读服务的节点。

思考,这种读写分离有什么问题?
有一个不可逾越的问题:数据不一致问题。根本原因在于只有 Master 节点可以写,Slave 节点只能同步 Master 数据并对外提供读服务,所以你会发现这个是一个异步的过程。

虽然最终数据会被 Slave 同步到,在数据完全一致之前,数据是不一致的,这个时候去 Slave 节点读就会读到旧的数据。所以,总结来说:读写分离的结构只适合特定场景,对于必须需要数据强一致的场景是不合适这种读写分离的。

Master-Slave 对容灾的思考
当 Master 节点出现故障的时候,由于 Slave 节点有备份数据,有数据就好办呀。只要有数据还在,对用户就有交代。这种 Master 故障的时候,可以通过人为 Check 和操作,手动把 Slave 节点指定为 Master 节点,这样又能对外提供服务了。

思考下这种模式有什么特点?

Master-Slave 只区分两种角色:Master 节点,Slave 节点;
Master-Slave 的角色是静态配置的,不能自动切换角色,必须人为指定;
用户只能写 Master 节点,Slave 节点只能从 Master 拉数据;
还有一个关键点:Slave 节点只和 Master 通信,Slave 之间相互不感知,这种好处对于 Master 来说优点是非常轻量,缺点是:系统明显存在单点,那么多 Slave 只能从 Master 拉数据,而无法提供自己的判断;
以上特点存在什么问题?

最大的第一个问题就是可用性差。因为很容易理解,因为主节点挂掉的时候,必须要人为操作处理,这里就是一个巨大的停服窗口;

Master-Slave 的现状
MongoDB 3.6 起已不推荐使用主从模式,自 MongoDB 3.2 起,分片群集组件已弃用主从复制。因为 Master-Slave 其中 Master 宕机后不能自动恢复,只能靠人为操作,可靠性也差,操作不当就存在丢数据的风险。

怎么搭建 Master-Slave 模式?

启动 Master 节点:

mongod –master –dbpath /data/masterdb/

关键参数:

–master :指定为 Master 角色;
启动 Slave 节点:

mongod –slave –source <:> –dbpath /data/slavedb/

关键参数:

–slave :指定为 Slave 角色;
–source :指定数据的复制来源,也就是 Master 的地址;

Replica Set 副本集模式

Replica Set 模式角色
Replica Set 是 mongod 的实例集合,包含三类节点角色:

Primary( 主节点 )

只有 Primary 是可读可写的,Primary 接收所有的写请求,然后把数据同步到所有 Secondary 。一个 Replica Set 只有一个 Primary 节点,当 Primary 挂掉后,其他 Secondary 或者 Arbiter 节点会重新选举出来一个 Primary 节点,这样就又可以提供服务了。

读请求默认是发到 Primary 节点处理,如果需要故意转发到 Secondary 需要客户端修改一下配置(注意:是客户端配置,决策权在客户端)。

那有人又会想了,这里也存在 Primary 和 Secondary 节点角色的分类,岂不是也存在单点问题?

这里和 Master-Slave 模式的最大区别在于,Primary 角色是通过整个集群共同选举出来的,人人都可能成为 Primary ,人人最开始只是 Secondary ,而这个选举过程完全自动,不需要人为参与。

Secondary( 副本节点 )

数据副本节点,当主节点挂掉的时候,参与选主。

思考一个问题:Secondary 和 Master-Slave 模式的 Slave 角色有什么区别?

最根本的一个不同在于:Secondary 相互有心跳,Secondary 可以作为数据源,Replica 可以是一种链式的复制模式。

Arbiter( 仲裁者 )

不存数据,不会被选为主,只进行选主投票。使用 Arbiter 可以减轻在减少数据的冗余备份,又能提供高可用的能力。

如下图:

在这里插入图片描述

副本集模式特点思考
MongoDB 的 Replica Set 副本集模式主要有以下几个特点:

数据多副本,在故障的时候,可以使用完的副本恢复服务。注意:这里是故障自动恢复;
读写分离,读的请求分流到副本上,减轻主(Primary)的读压力;
节点直接互有心跳,可以感知集群的整体状态;
思考:这种有什么优缺点呢?

可用性大大增强,因为故障时自动恢复的,主节点故障,立马就能选出一个新的 Primary 节点。但是有一个要注意的点:每两个节点之间互有心跳,这种模式会导致节点的心跳几何倍数增大,单个 Replica Set 集群规模不能太大,一般来讲最大不要超过 50 个节点。

思考:节点数有讲究吗?

有的,参与投票节点数要是奇数,这个非常重要。为什么,因为偶数会导致脑裂,也就是投票数对等的情况,无法选出 Primary。

举个例子,如果有 3 张票,那么一定是 2:1 ,有一个人一定会是多数票,如果是 4 张票,那么很有可能是 2:2 ,那么就有平票的现象。

Sharding 模式

按道理 Replica Set 模式已经非常好的解决了可用性问题,为什么还会往后演进呢?因为在当今大数据时代,有一个必须要考虑的问题:就是数据量。

用户的数据量是永远都在增加的,理论是没有上限的,但 Replica Set 却是有上限的。怎么说?

举个例子,假设说你的单机有 10TiB 的空间,内存是 500 GiB,网卡是 40 G,这个就是单机的物理极限。当数据量超过 10 TiB,这个 Replica Set 就无法提供服务了。你可能会说,那就加磁盘喽,把磁盘的容量加大喽。是可以,但是单机的容量和性能一定是有物理极限的(比如说你的磁盘槽位可能最多就 60 盘)。单机存在瓶颈怎么办?

解决方案就是:利用分布式技术

解决性能和容量瓶颈一般来说优化有两个方向:

  • 纵向优化
  • 横向优化

纵向优化是传统企业最常见的思路,持续不断的加大单个磁盘和机器的容量和性能。CPU 主频不断的提升,核数也不断地加,磁盘容量从 128 GiB 变成当今普遍的 12 TiB,内存容量从以前的 M 级别变成现在上百 G 。带宽从以前百兆网卡变成现在的普遍的万兆网卡,但这些提升终究追不上用互联网数据规模的增加量级。

横向优化通俗来讲就是加节点,横向扩容来解决问题。业务上要划分系统数据集,并在多台服务器上处理,做到容量和能力跟机器数量成正比。单台计算机的整体速度或容量可能不高,但是每台计算机只能处理全部工作量的一部分,因此与单台高速大容量服务器相比,可能提供更高的效率。

扩展的容量仅需要根据需要添加其他服务器,这比一台高端硬件的机器成本还低,代价就是软件的基础结构要支持,部署维护要复杂。

那么,实际情况下,哪一种更具可行性呢?

自然是分布式技术的方案,纵向优化的方案非常容易到达物理极限,横向优化则对个体要求不高,而是群体发挥效果(但是对软件架构提出更高的要求)。

2003年,Google 发布 Google File System 论文,这是一个可扩展的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,提供分布式容错功能。GFS 正式拉开分布式技术应用的大门。

MongoDB 的 Sharding 模式就是 MongoDB 横向扩容的一个架构实现。我们下面就看一下 Sharding 模式和之前 Replica Set 模式有什么特殊之处吧。

Sharding 模式角色
Sharding 模式下按照层次划分可以分为 3 个大模块:

代理层:mongos
配置中心:副本集群(mongod)
数据层:Shard 集群

简要如下图:

在这里插入图片描述

代理层:

代理层的组件也就是 mongos ,这是个无状态的组件,纯粹是路由功能。向上对接 Client ,收到 Client 写请求的时候,按照特定算法均衡散列到某一个 Shard 集群,然后数据就写到 Shard 集群了。收到读请求的时候,定位找到这个要读的对象在哪个 Shard 上,就把请求转发到这个 Shard 上,就能读到数据了。

数据层:

数据层是啥?就是存储数据的地方。你会惊奇的发现,其实数据层就是由一个个 Replica Set 集群组成。在前面我们说过,单个 Replica Set 是有极限的,怎么办?那就搞多个 Replica Set ,这样的一个 Replica Set 我们就叫做 Shard 。理论上,Replica Set 的集群的个数是可以无限增长的。

配置中心:

代理层是无状态的模块,数据层的每一个 Shard 是各自独立的,那总要有一个集群统配管理的地方,这个地方就是配置中心。里面记录的是什么呢?

比如:有多少个 Shard,每个 Shard 集群又是由哪些节点组成的。每个 Shard 里大概存储了多少数据量(以便做均衡)。这些东西就是在配置中心的。

配置中心存储的就是集群拓扑,管理的配置信息。这些信息也非常重要,所以也不能单点存储,怎么办?配置中心也是一个 Replica Set 集群,数据也是多副本的。

详细架构图:

在这里插入图片描述

Sharding 模式怎么存储数据?
我们说过,纵向优化是对硬件使用者最友好的,横向优化则对硬件使用者提出了更高的要求,也就是说软件架构要适配。

单 Shard 集群是有限的,但 Shard 数量是无限的,Mongo 理论上能够提供近乎无限的空间,能够不断的横向扩容。那么现在唯一要解决的就是怎么去把用户数据存到这些 Shard 里?MongDB 是怎么做的?

首先,要选一个字段(或者多个字段组合也可以)用来做 Key,这个 Key 可以是你任意指定的一个字段。我们现在就是要使用这个 Key 来,通过某种策略算出发往哪个 Shard 上。这个策略叫做:Sharding Strategy ,也就是分片策略。

我们把 Sharding Key 作为输入,按照特点的 Sharding Strategy 计算出一个值,值的集合形成了一个值域,我们按照固定步长去切分这个值域,每一个片叫做 Chunk ,每个 Chunk 出生的时候就和某个 Shard 绑定起来,这个绑定关系存储在配置中心里。

所以,我们看到 MongoDB 的用 Chunk 再做了一层抽象层,隔离了用户数据和 Shard 的位置,用户数据先按照分片策略算出落在哪个 Chunk 上,由于 Chunk 某一时刻只属于某一个 Shard,所以自然就知道用户数据存到哪个 Shard 了。

Sharding 模式下数据写入过程:

在这里插入图片描述

Sharding 模式下数据读取过程:
mongos 作为路由模块其实就是寻路的组件,写的时候先算出用户 key 属于哪个 Chunk,然后找出这个 Chunk 属于哪个 Shard,最后把请求发给这个 Shard ,就能把数据写下去。读的时候也是类似,先算出用户 key 属于哪个 Chunk,然后找出这个 Chunk 属于哪个 Shard,最后把请求发给这个 Shard ,就能把数据读上来。

实际情况下,mongos 不需要每次都和 Config Server 交互,大部分情况下只需要把 Chunk 的映射表 cache 一份在 mongos 的内存,就能减少一次网络交互,提高性能。

为什么要多一层 Chunk 这个抽象?

为了灵活,因为一旦是用户数据直接映射到 Shard 上,那就相当于是用户数据和底下的物理位置绑定起来了,这个万一 Shard 空间已经满了,怎么办?

存储不了呀,又不能存储到其他地方去。有同学就会想了,那我可以把这个变化的映射记录下来呀,记录下来理论上行得通,但是每一个用户数据记录一条到 Shard 的映射,这个量级是非常大的,实际中没有可行性。

而现在多了一层 Chunk 空间,就灵活了。用户数据不再和物理位置绑定,而是只映射到 Chunk 上就可以了。如果某个 Shard 数据不均衡,那么可以把 Chunk 空间分裂开,迁走一半的数据到其他 Shard ,修改下 Chunk 到 Shard 的映射,Chunk 到 Shard 的映射条目很少,完全 Hold 住,并且这种均衡过程用户完全不感知。

讲回 Sharding Strategy 是什么?本质上 Sharding Strategy 是形成值域的策略而已,MongoDB 支持两种 Sharding Strategy:

Hashed Sharding 的方式
Range Sharding 的方式

Hashed Sharding

把 Key 作为输入,输入到一个 Hash 函数中,计算出一个整数值,值的集合形成了一个值域,我们按照固定步长去切分这个值域,每一个片叫做 Chunk ,这里的 Chunk 则就是整数的一段范围而已。

在这里插入图片描述

这种计算值域的方式有什么优缺点呢?

好处是:

计算速度快
均衡性好,纯随机
坏处是:

正因为纯随机,排序列举的性能极差,比如你如果按照 name 这个字段去列举数据,你会发现几乎所有的 Shard 都要参与进来;

Range Sharding

Range 的方式本质上是直接用 Key 本身来做值,形成的 Key Space 。

在这里插入图片描述

如上图例子,Sharding Key 选为 name 这个字段,对于 “test_0″,”test_1″,”test_2” 这样的 key 排序就是挨着的,所以就全都分配在一个 Chunk 里。

这 3 条 Docuement 大概率是在一个 Chunk 上,因为我们就是按照 Name 来排序的。这种方式有什么优缺点?

好处是:

对排序列举场景非常友好,因为数据本来就是按照顺序依次放在 Shard 上的,排序列举的时候,顺序读即可,非常快速;

坏处是:

容易导致热点,举个例子,如果 Sharding Key 都有相同前缀,那么大概率会分配到同一个 Shard 上,就盯着这个 Shard 写,其他 Shard 空闲的很,却帮不上忙;
可用性的进一步提升
为什么说 Sharding 模式不仅是容量问题得到解决,可用性也进一步提升?

因为 Shard(Replica Set)集群个数多了,即使一个或多个 Shard 不可用,Mongo 集群对外仍可以 提供读取和写入服务。因为每一个 Shard 都有一个 Primary 节点,都可以提供写服务,可用性进一步提升。

推荐使用姿势
上面已经介绍了历史演进的 3 种高可用模式,Master-Slave 模式已经在不推荐了,Relicate Set 和 Sharding 模式都可以保证数据的高可靠和高可用,但是在我们实践过程中,发现客户端存在非常大的配置权限,也就是说如果用户在使用 MongoDB 的时候使用姿势不对,可能会导致达不到你的预期。

使用姿势一:怎么保证高可用?
如果是 Replicate Set 模式,那么客户端要主动感知主从切换。以前用过 Go 语言某个版本的 MongoDB client SDK,发现在主从切换的时候,并没有主动感知,导致请求还一直发到已经故障的节点,从而导致服务不可用。

所以针对这种形式要怎么做?有两个方案:

用 Sharding 模式,因为 Sharding 模式下,用户打交道的是 mongos ,这个是一个代理,帮你屏蔽了底层 Replica Set 的细节,主从切换由它帮你做好;
客户端自己感知,定期刷新(这种就相对麻烦)
使用姿势二:怎么保证数据的高可靠?
客户端配置写多数成功才算成功。没错,这个权限交由由客户端配置。如果没有配置写多数成功,那么很可能写一份数据成功就成功了,这个时候如果发生故障,或者切主,那么数据可能丢失或者被主节点 rollback ,也等同用户数据丢失。

mongodb 有完善的 rollback 及写入策略(WriteConcern)机制,但是也要使用得当。怎么保证高可靠?一定要写多数成功才算成功。

使用姿势三:怎么保证数据的强一致性?
客户端要配置两个东西:

写多数成功,才算成功;
读使用 strong 模式,也就是只从主节点读;
只有这两个配置一起上,才能保证用户数据的绝对安全,并且对外提供数据的强一致性。

sharding组件介绍
mongos

mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。

config server

config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!

shard

shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。

replica set

replica set,中文翻译副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。

Arbiter

仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。

三、MongoDB部署分片集群

环境准备

系统系统 centos7.9
三台服务器:10.32.176.80/81/82
安装包: mongodb-linux-x86_64-rhel70-5.0.4.tgz

下载地址:https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-5.0.4.tgz

分片集群部署规划

节点IP、组件及端口规划:

IP地址mongos-routerconfig-servershard
10.32.176.80mongos-router:27017config-server:27018shard1:27019 shard2:27020 shard3:27021
10.32.176.81mongos-router:27017config-server:27018shard1:27019 shard2:27020 shard3:27021
10.32.176.82mongos-router:27017config-server:27018shard1:27019 shard2:27020 shard3:27021
部署架构图

在这里插入图片描述

集群搭建
1、集群目录规划
  • mongodb安装目录:/data/mongodb
  • 集群组件数据目录:/data/mongdb/cluster

创建数据目录和日志目录

mkdir -p /data/mongodb/cluster/{config,mongos,shard1,shard2,shard3}/{data,logs}
目录结构如下:
[root@vm1 ~]# tree /data/mongodb/
/data/mongodb/
└── cluster
    ├── config
    │   ├── data
    │   └── logs
    ├── mongos
    │   ├── data
    │   └── logs
    ├── shard1
    │   ├── data
    │   └── logs
    ├── shard2
    │   ├── data
    │   └── logs
    └── shard3
        ├── data
        └── logs

2、安装mongodb

安装mongodb tar包所需依赖以及解压安装包

yum install -y libcurl openssl xz-libs
tar -zxvf mongodb-linux-x86_64-rhel70-5.0.4.tgz -C /data/mongodb --strip=1

配置环境变量

echo "PATH=$PATH:/data/mongodb/bin" > /etc/profile.d/mongodb.sh
source /etc/profile.d/mongodb.sh
mongo --version

创建mongodb启动用户

groupadd mongod
useradd -g mongod mongod

配置mongodb目录权限

chown -R mongod:mongod /data/mongodb
3、config server配置服务器

添加配置文件(配置文件模板-----bindIp需要修改)

cat > /data/mongodb/cluster/config/mongod.conf <<EOF
systemLog:
  destination: file
  logAppend: true
  path: /data/mongodb/cluster/config/logs/mongod.log

# Where and how to store data.
storage:
  dbPath: /data/mongodb/cluster/config/data
  journal:
    enabled: true

# how the process runs
processManagement:
  fork: true  # fork and run in background
  pidFilePath: /data/mongodb/cluster/config/mongod.pid  # location of pidfile
  timeZoneInfo: /usr/share/zoneinfo

# network interfaces
net:
  port: 27018
  bindIp: 10.32.176.8x

sharding:
  clusterRole: configsvr

replication:
  replSetName: config
EOF

连接3个节点执行以下命令分别启动configServer

mongod -f /data/mongodb/cluster/config/mongod.conf

登录任意一台配置服务器,初始化配置副本集

#连接
mongo 10.32.176.80 --port 27018
初始化configServer副本集
rs.initiate(
  {
    _id: "config",
    configsvr: true,
    members: [
      { _id : 0, host : "10.32.176.80:27018" },
      { _id : 1, host : "10.32.176.81:27018" },
      { _id : 2, host : "10.32.176.82:27018" }
    ]
  }
)
查看节点状态
rs.status()

其中,”_id” : “config”应与配置文件中配置的 replicaction.replSetName 一致,”members” 中的 “host” 为三个节点的 ip 和 port

4、配置分片

修改shard1分片配置文件

配置文件

cat > /data/mongodb/cluster/shard1/mongod.conf <<EOF
systemLog:
  destination: file
  logAppend: true
  path: /data/mongodb/cluster/shard1/logs/mongod.log

# Where and how to store data.
storage:
  dbPath: /data/mongodb/cluster/shard1/data
  journal:
    enabled: true

# how the process runs
processManagement:
  fork: true  # fork and run in background
  pidFilePath: /data/mongodb/cluster/shard1/mongod.pid  # location of pidfile
  timeZoneInfo: /usr/share/zoneinfo

# network interfaces
net:
  port: 27019
  bindIp: 10.32.176.80

sharding:
    clusterRole: shardsvr
    
replication:
    replSetName: shard1
EOF

启动三台服务器的shard1 server

mongod -f /data/mongodb/cluster/shard1/mongod.conf

登陆任意一台服务器,初始化副本集

mongo 10.32.176.80 --port 27019
rs.initiate(
  {
    _id: "shard1",
    members: [
      { _id : 0, host : "10.32.176.80:27019" },
      { _id : 1, host : "10.32.176.81:27019" },
      { _id : 2, host : "10.32.176.82:27019" }
    ]
  }
)

修改shard2分片配置文件

配置文件

cat > /data/mongodb/cluster/shard2/mongod.conf <<EOF
systemLog:
  destination: file
  logAppend: true
  path: /data/mongodb/cluster/shard2/logs/mongod.log

# Where and how to store data.
storage:
  dbPath: /data/mongodb/cluster/shard2/data
  journal:
    enabled: true

# how the process runs
processManagement:
  fork: true  # fork and run in background
  pidFilePath: /data/mongodb/cluster/shard2/mongod.pid  # location of pidfile
  timeZoneInfo: /usr/share/zoneinfo

# network interfaces
net:
  port: 27020
  bindIp: 10.32.176.81

sharding:
    clusterRole: shardsvr
    
replication:
    replSetName: shard2
EOF

启动三台服务器的shard2 server

mongod -f /data/mongodb/cluster/shard2/mongod.conf

登陆任意一台服务器,初始化副本集

mongo 10.32.176.80 --port 27020
rs.initiate(
  {
    _id: "shard2",
    members: [
      { _id : 0, host : "10.32.176.80:27020" },
      { _id : 1, host : "10.32.176.81:27020" },
      { _id : 2, host : "10.32.176.82:27020" }
    ]
  }
)

修改shard3分片配置文件

配置文件

cat > /data/mongodb/cluster/shard3/mongod.conf <<EOF
systemLog:
  destination: file
  logAppend: true
  path: /data/mongodb/cluster/shard3/logs/mongod.log

# Where and how to store data.
storage:
  dbPath: /data/mongodb/cluster/shard3/data
  journal:
    enabled: true

# how the process runs
processManagement:
  fork: true  # fork and run in background
  pidFilePath: /data/mongodb/cluster/shard3/mongod.pid  # location of pidfile
  timeZoneInfo: /usr/share/zoneinfo

# network interfaces
net:
  port: 27021
  bindIp: 10.32.176.82

sharding:
    clusterRole: shardsvr
    
replication:
    replSetName: shard3
EOF

启动三台服务器的shard3 server

mongod -f /data/mongodb/cluster/shard3/mongod.conf

登陆任意一台服务器,初始化副本集

mongo 10.32.176.80 --port 27021
rs.initiate(
  {
    _id: "shard3",
    members: [
      { _id : 0, host : "10.32.176.80:27021" },
      { _id : 1, host : "10.32.176.81:27021" },
      { _id : 2, host : "10.32.176.82:27021" }
    ]
  }
)

查看各个分片副本集节点状态

rs.status()
5、配置路由服务器 mongos

添加配置文件(bindIp需要修改)

先启动配置服务器和分片服务器,后启动路由实例:(3个节点启动mongos-router,注意启动时使用mongos命令而非mongod命令)

cat > /data/mongodb/cluster/mongos/mongod.conf <<EOF
systemLog:
  destination: file
  logAppend: true
  path: /data/mongodb/cluster/mongos/logs/mongod.log

# how the process runs
processManagement:
  fork: true  # fork and run in background
  pidFilePath: /data/mongodb/cluster/mongos/mongod.pid  # location of pidfile
  timeZoneInfo: /usr/share/zoneinfo

# network interfaces
net:
  port: 27017
  bindIp: 10.32.176.8x

sharding:
  configDB: config/10.32.176.80:27018,10.32.176.81:27018,10.32.176.82:27018
EOF

启动三台服务器的mongos server

mongos -f /data/mongodb/cluster/mongos/mongod.conf
6、启用分片

目前搭建了mongodb配置服务器、路由服务器,各个分片服务器,不过应用程序连接到mongos路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效。

登陆任意一台mongos

mongo 10.32.176.80 --port 27017
sh.addShard( "shard1/10.32.176.80:27019,10.32.176.81:27019,10.32.176.82:27019")
sh.addShard( "shard2/10.32.176.80:27020,10.32.176.81:27020,10.32.176.82:27020")
sh.addShard( "shard3/10.32.176.80:27021,10.32.176.81:27021,10.32.176.82:27021")
查看mongos状态
sh.status()
查看当前节点运行的所有mongod进程
[root@vm1 ~]# ps -ef | grep mongod | grep -v grep
root      37847      1  5 17:53 ?        00:01:43 mongod -f /data/mongodb/cluster/config/mongod.conf
root      37993      1  3 18:01 ?        00:00:49 mongod -f /data/mongodb/cluster/shard1/mongod.conf
root      38036      1  3 18:01 ?        00:00:48 mongod -f /data/mongodb/cluster/shard2/mongod.conf
root      38079      1  3 18:01 ?        00:00:50 mongod -f /data/mongodb/cluster/shard3/mongod.conf
root      38329      1  0 18:13 ?        00:00:06 mongos -f /data/mongodb/cluster/mongos/mongod.conf
7、测试

目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片。连接在mongos上,准备让指定的数据库、指定的集合分片生效。

#连接任意一台mongos节点
mongo 10.32.176.80 --port 27017
use admin

#为数据库启用分片
为testdb数据库启用分片
sh.enableSharding("testdb")

#为集合启用分片
为order集合设置分片规则
sh.shardCollection("testdb.order", {"_id": "hashed" })

#插入100000条数据进行验证
use testdb
for (i = 1; i <= 100000; i=i+1){
    db.order.insert({'price': 1})
}

#查看插入的数据量
db.order.find().count()

#查看分片情况
db.order.stats();
"ns" : "testdb.order",
        "count" : 99999,
        "size" : 8388810,
        "storageSize" : 4153344,
        "totalIndexSize" : 9805824,
        "totalSize" : 13959168,
        "indexSizes" : {
                "_id_" : 4915200,
                "_id_hashed" : 4890624
        },
        "avgObjSize" : 83,
        "maxSize" : NumberLong(0),
        "nindexes" : 2,
        "scaleFactor" : 1,
        "nchunks" : 6,
        "shards" : {
                "shard1" : {
                        "ns" : "testdb.order",
                        "size" : 2757979,
                        "count" : 32877,
                        "avgObjSize" : 83,
                        "storageSize" : 1368064,
                        "freeStorageSize" : 679936,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }
                                .........
                                
                "shard2" : {
                        "ns" : "testdb.order",
                        "size" : 2816622,
                        "count" : 33576,
                        "avgObjSize" : 83,
                        "storageSize" : 1396736,
                        "freeStorageSize" : 692224,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }
                                .........
                "shard3" : {
                        "ns" : "testdb.order",
                        "size" : 2814209,
                        "count" : 33546,
                        "avgObjSize" : 83,
                        "storageSize" : 1388544,
                        "freeStorageSize" : 688128,
                        "capped" : false,
                        "wiredTiger" : {
                                "metadata" : {
                                        "formatVersion" : 1
                                }
                                .........
              
              
     以看到数据分到3个分片,各自分片数量为: shard1 “count” : 32877,shard2 “count” : 33576,shard3 “count” : 33547

四、后期运维

启动关闭

mongodb的启动顺序是,先启动配置服务器,在启动分片,最后启动mongos.

mongod -f /data/mongodb/cluster/config/mongod.conf
mongod -f /data/mongodb/cluster/shard1/mongod.conf
mongod -f /data/mongodb/cluster/shard2/mongod.conf
mongod -f /data/mongodb/cluster/shard3/mongod.conf
mongos -f /data/mongodb/cluster/mongos/mongod.conf

关闭时,直接killall杀掉所有进程

killall mongod
killall mongos
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
对于MongoDB分片集群部署,您可以按照以下步骤进行操作: 1. 部署配置服务器(config server):配置服务器用于存储分片集群的元数据,可以独立部署或与其他组件共享服务器。您可以选择部署多个配置服务器以增加可用性。 2. 启动分片服务器(shard server):分片服务器用于存储数据,您可以选择在不同的物理机器或虚拟机上启动多个分片服务器。每个分片服务器都可以容纳一部分数据。 3. 启动路由器(router):路由器也称为mongos进程,它是应用程序和分片集群之间的中间件。它将客户端请求路由到正确的分片服务器,并协调数据的读写操作。 4. 添加分片:在启动了路由器和分片服务器之后,您需要将分片服务器添加到集群中。使用mongos进程连接到配置服务器,并使用`sh.addShard()`命令添加每个分片服务器。 5. 配置分片键(shard key):分片键用于将数据划分为不同的分片。选择一个适合您数据模式和查询模式的字段作为分片键,并使用`sh.shardCollection()`命令启用分片。 6. 验证部署:您可以使用`sh.status()`命令来验证集群的状态,并确保所有组件都正常工作。 这只是一个简单的概述,实际部署过程可能会更加复杂,并且取决于您的环境和需求。建议您参考MongoDB官方文档中关于分片集群部署的详细指南,以获得更全面的了解和操作指导。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值