废话不多说,我电脑配置 i7四核cpu 8G内存
插入数据文档中有5个字段,其中有两个分词,一个int,一个date
批量插入测试一次10万循环10次总共100万用时85秒
批量插入测试一次10万循环100次总共1000万用时865秒
插入性能还是不错的
查询测试
在12166454数据中(约等于一千两百万)总共占用硬盘2.8G
查询分词字段 title:中国用时0.031秒
非分词字段查询 view_count:1 用时 0.030秒
范围查询 view_count:[0 TO 1000] 用时0.125秒
上面这些查询第二次查询的时候用时都在0.001秒之下应该是因为有缓存的原因
相对数据库的模糊查询优势及其明显,我用mysql两千万数据查询“%中国%”直接数据库卡掉了
(不过这么比较美意思,全文检索存储方式跟sql不一样,各有优劣)
在过亿的数据量中
插入一亿数据耗时1小时40分钟35秒
插入过程中 内存占用70%左右 cpu没多少变化 11%左右
(上班写的,未完待续)