百万数量级的MongoDB去重操作

最近自己有一份MongoDB的数据需要去重,但是发下直接运行以前的去重命令发现报错,通过查看报错信息发现报错原因为超出了MongoDB的内存的限制,通过查阅资料整理,终于解决了问题,下面奉上代码供大家参考。

查询数据中是否有重复的数据:

.aggregate([
    { $group: { _id : '$店铺id', count: { $sum : 1 } } },
    { $match: { count: { $gt : 1} } }
])

上诉代码段 $店铺id 对应的是需要查询的字段名。

百万级数据去重操作

 db.getCollection('店铺链接_test').aggregate([
    {
        $group: { _id: {店铺id: '$店铺id'},count: {$sum: 1},dups: {$addToSet: '$_id'}}
    },
    {
        $match: {count: {$gt: 1}}
    }
	],{allowDiskUse: true}).forEach( //(使用forEach循环根据_id删除数据)
    function(doc){ 
        doc.dups.shift(); 
        db.getCollection('店铺链接_test').remove(
            {
                _id: {
                    $in: doc.dups
                }
            }
        ); 
    }
)

其中的重点是   {allowDiskUse: true}  这句话,通过查阅知晓语句的作用是  即允许使用磁盘缓存!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值