MongoDB + Robo 3T数据去重

Robo 3T是MongoDB数据库的可视化界面软件。 
爬虫时会因为某些原因,导致抓取的数据会有重复的。 
除了在代码中处理去重,我们可以动动手指即可实现去重处理。 
因此,我们可以指定字段来去重。 
只需在Robo 3T可视化界面中输入一下代码即可:

db.getCollection('数据表名称').aggregate([{$group:{_id:{字段名:'$字段名'}, count:{$sum:1}, dups:{$addToSet: '$_id'}}},{$match:{count:{$gt:1}}}]).forEach(function(doc){doc.dups.shift();db.getCollection('数据表名称').remove({_id: {$in: doc.dups}});})

运行代码,即可实现数据去重。

此方法在数据量不是很大的情况下可行,但是数据量大了就不好用了,具体界限没有测试,数据量大的情况下可参考:Python 操作 mongodb 亿级数据量使用 Bloomfilter 高效率判断唯一性 例子

 

via:https://blog.csdn.net/qq_17249717/article/details/81433587

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值