mysql迁移mongodb_mysql迁移到mongodb shared架构的过程中踩到的一个坑

Mysql库中有一个表,数据量在10亿左右,基本上对于这个表的操作都是没有意义的,因此想测试一下迁移到mongodb的shared架构上是否会有所改善。于是哼哧哼哧的搭建了一个3分片的mongo环境,并将mysql中这个大表的数据导出成了csv的格式,最终使用mongoimport工具成功将10亿多的数据导入mongo集群中去。但是导完后查看了下mongodb中对应的db的信息,差点没吓出尿来,请看:## 在mongos中查看db的信息,显示迁移后的lens_mobapp_trace库大小为1197.416GB

mongos> show dbs;

admin                 0.016GB

config                0.109GB

lens_mobapp_trace  1197.416GB

test                  0.031GB

而我从mysql中导出的数据文件大小只有259GB,格式为csv,如下:## 大小

$ ll -h

total 259G

-rw-r--r-- 1 root root 259G Mar 25 16:27 NL_MOB_APP_ERROR_TRACE.txt

## 格式:逗号分隔的csv文件

$ head -2 NL_MOB_APP_ERROR_TRACE.txt

"1551445226","2015-02-11 00:00:01","4613","5969","2","19796","1","5397","73","0","0","46000","4","0","499","2","903","1","-370443099","http://pingma.qq.com/mstat/report","nbfs://2015/2/11/4613/4613.0.txt?2444,2#93b"

"1551445229","2015-02-11 00:00:01","4611","7259","1","34","2","1038","71","48","4815","16","1","1482","412161","2","903","1","1429877488","http://api.mobile.cosmeapp.cn/cosmeapi","nbfs://2015/2/11/4611/4611.0.txt?38200,750#2c2"

这259G的数据在mysql库中的大小如下:## 数据大小228GB

mysql> select sum(data_length)/1024/1024/1024 as size from information_schema.tables where table_name ='NL_MOB_APP_ERROR_TRACE' and table_schema='lens_mobapp_trace';

+-----------------------+

| size                  |

+-----------------------+

|     227.9790587359032 |

+-----------------------+

1 row in set (0.59 sec)

## 数据+索引总大小404GB

mysql> select sum(data_length+index_length)/1024/1024/1024 from information_schema.tables where table_name ='NL_MOB_APP_ERROR_TRACE' and table_schema='lens_mobapp_trace';

+-----------------------+

| size                  |

+-----------------------+

|     404.3463549343156 |

+-----------------------+

1 row in set (0.00 sec)

## 记录数

mysql> select count(*) from  NL_MOB_APP_ERROR_TRACE;

+------------------+

| count(*)         |

+------------------+

| 1079684226       |

+------------------+

1 row in set (23 min 18.06 sec)

看到迁移到mongodb中数据量变为1197.416GB,一开始我是拒绝的,怀疑是加了特技,因为都说mongodb会预分配大文件用于存储,于是到mongos上去看了看后端分片真实的存储状况mongos> use lens_mobapp_trace

switched to db lens_mobapp_trace

## 这里只抽取一个分片来说明问题

mongos> db.stats();

{

"raw" : {

........

"udb-q12c20/10.6.14.38:27017" : {

"db" : "lens_mobapp_trace",

"collections" : 4,

"objects" : 352321865,

"avgObjSize" : 1005.7750069868641,

"dataSize" : 354356526232,

"storageSize" : 371299001584,

"numExtents" : 711,

"indexes" : 3,

"indexSize" : 64238570368,

"fileSize" : 437856239616,

"nsSizeMB" : 16,

"dataFileVersion" : {

"major" : 4,

"minor" : 5

},

"extentFreeList" : {

"num" : 4,

"totalSize" : 180224

},

"ok" : 1

},

.......

}

"objects" : 352321865                    ## 该分片上的记录数

"avgObjSize" : 1005.7750069868641        ## 每条记录平均大小

"dataSize" : 354356526232                ## 真实的数据大小

"storageSize" : 371299001584             ## 数据大小+预分配表空间(2G)

"indexSize" : 64238570368                ## 索引的大小

"fileSize" : 437856239616                ## 整个数据文件的大小

可以看到每条记录在mongodb中占用约1k的空间,而在mysql中每条记录的平均大小为227bytes,所以数据迁移到mongodb后数据会变的这么大。那么具体原因是什么呢?mongodb对插入的每一条记录都会自动的添加一个唯一标识的字段_id,该字段大小为12bytes,还有就是mongodb每条记录都会预留一些replace的空间用于记录的更新操作,再有就是预分配功能也会占用一定的空间(最大为2GB)。mongodb和mysql对与表空间的管理是不同的,但是有一点是可以肯定的,那就是数据从mysql迁移到mongodb上数据是膨胀的。

我们上面这个测试采用的版本是mongodb2.6.9。mongodb3.0之后对底层存储做了改进,使用WiredTiger作为内建的存储引擎,官方的说这一举措能够为MongoDB带了文档级锁的并发控制和高效的文档压缩功能,且自身性能也有了重大的提升,提升MongoDB 7-10倍的写操作性能、降低了80%的存储占用空间、降低了高达95%操作开销、支持高达50个副本集,好奇心的驱动,于是做了一个简单测试,过程如下:mongodb采用WiredTiger引擎启动,然后导入了5G的数据,最后查看导入后的数据大小。## mongodb3.0.1采用WiredTiger引擎,启动服务

mongod --dbpath=/data/db/ --logpath=/data/db/logs/mongodb.log --logappend --port=27017 -storageEngine wiredTiger --fork  >/dev/null

## 数据样本大小

[root@manager opt]# ll -h xaa

-rw-r--r-- 1 root root 5.0G Apr 22 16:57 xaa

## 数据样本记录数

[root@manager opt]# wc -l xaa

21300000 xaa

## 数据样本格式

[root@manager opt]# head -2 xaa

"1551445226","2015-02-11 00:00:01","4613","5969","2","19796","1","5397","73","0","0","46000","4","0","499","2","903","1","-370443099","http://pingma.qq.com/mstat/report","nbfs://2015/2/11/4613/4613.0.txt?2444,2#93b"

"1551445229","2015-02-11 00:00:01","4611","7259","1","34","2","1038","71","48","4815","16","1","1482","412161","2","903","1","1429877488","http://api.mobile.cosmeapp.cn/cosmeapi","nbfs://2015/2/11/4611/4611.0.txt?38200,750#2c2"

采用mongoimport的方式导入mongodb,然后在库中查看库的大小和记录数## 库中查看

> show dbs;

lens_mobapp_trace  2.847GB

local              0.000GB

> use lens_mobapp_trace

switched to db lens_mobapp_trace

> show collections;

NL_MOB_APP_ERROR_TRACE

> db.NL_MOB_APP_ERROR_TRACE.count();

21300000

## 查看文件系统中数据目录的大小

[root@manager db]# ll -h

total 2.9G

-rw-r--r-- 1 mongodb mongodb  16K Apr 22 22:28 collection-0-3862414736807305835.wt

-rw-r--r-- 1 root    root    2.7G Apr 22 23:03 collection-2-3862414736807305835.wt

-rw-r--r-- 1 mongodb mongodb  16K Apr 22 22:28 index-1-3862414736807305835.wt

-rw-r--r-- 1 root    root    185M Apr 22 23:03 index-3-3862414736807305835.wt

drwxr-xr-x 2 mongodb mongodb 4.0K Apr 22 23:03 journal

drwxr-xr-x 2 mongodb mongodb 4.0K Apr 22 22:26 logs

-rw-r--r-- 1 mongodb mongodb  32K Apr 22 22:31 _mdb_catalog.wt

-rwxr-xr-x 1 mongodb mongodb    5 Apr 22 22:27 mongod.lock

-rw-r--r-- 1 mongodb mongodb  36K Apr 22 23:05 sizeStorer.wt

-rw-r--r-- 1 mongodb mongodb   95 Apr 22 22:27 storage.bson

-rw-r--r-- 1 mongodb mongodb   46 Apr 22 22:27 WiredTiger

-rw-r--r-- 1 mongodb mongodb  495 Apr 22 22:27 WiredTiger.basecfg

-rw-r--r-- 1 mongodb mongodb   21 Apr 22 22:27 WiredTiger.lock

-rw-r--r-- 1 root    root     886 Apr 22 23:06 WiredTiger.turtle

-rw-r--r-- 1 mongodb mongodb  44K Apr 22 23:06 WiredTiger.wt

看到这个结果不由得让人欣喜,看来mongodb3.0之后,确实提升了很多,导入5GB数据,压缩比在57%左右,如果导入较大的数据量的话,那么这个压缩比应该是会有所提高,看来与官方说的80%出入不大,这个测试结果是不是又燃起了你对mongodb的信心?哈哈,看来是有必要学习一下3.0的新版本了,新技术层出不穷,it海中漂泊,唯有day day up。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要将MySQL数据迁移MongoDB,可以按照以下步骤进行操作: 1. 确保你已经安装了MySQLMongoDB数据库,并且两者都可访问。 2. 创建一个空的MongoDB数据库,用于存储迁移后的数据。 3. 连接到MySQL数据库,并导出要迁移的数据。你可以使用MySQL提供的工具如mysqldump或者使用编程语言MySQL驱动来导出数据。 例如,使用mysqldump命令可以执行以下操作: ``` mysqldump -u username -p --databases dbname > dump.sql ``` 这将导出名为dbname的数据库,并将数据保存到dump.sql文件。 4. 将导出的MySQL数据转换为MongoDB可读取的格式。由于MySQLMongoDB之间存在结构差异,你可能需要对导出的数据进行一些转换。这包括将关系型数据库的表结构转换为文档存储的形式。 如果数据量较小,你可以使用编程语言的适当库来完成此转换。如果数据量较大,你可能需要开发一个自定义脚本或使用ETL(Extract, Transform, Load)工具来执行此转换。 5. 将转换后的数据导入MongoDB数据库。你可以使用MongoDB提供的工具如mongoimport或者使用编程语言MongoDB驱动来导入数据。 例如,使用mongoimport命令可以执行以下操作: ``` mongoimport --db dbname --collection collectionname --file dump.json ``` 这将导入名为dump.json的文件的数据到MongoDB的dbname数据库的collectionname集合。 6. 验证数据迁移是否成功。连接到MongoDB数据库,查询导入的数据,确保数据已经正确地迁移到了MongoDB。 请注意,数据迁移可能会涉及到复杂的逻辑和转换过程,具体的步骤可能会因你的数据结构和需求而有所不同。在进行数据迁移之前,建议先进行适当的测试和备份,以确保数据的安全性和完整性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值