mongoDB聚合操作在爬虫中的应用:查询匹配对应条件的数据,然后随机取样

背景:

假如我的爬虫需要同一套代码,实现并行执行多个爬虫任务。这时你可以使用代码中实现多进程,这样做部署在一台服务器中是可以的。但是如果你是部署多台服务器的时候,就有问题了。当然有多种实现方式,但我这边是使用mongo来实现的。

解决:

当你启动爬虫时,将一些爬虫列表(适合于万级~千万级别)存储在mongo中。然后,查询对应条件的爬虫列表,然后随机取样,这就可以实现多个并行爬虫获取到的爬虫列表不同,从而避免多次运行一套代码重复爬取相同的列表,当然这样还是可能重复,但已经极大程度避免了爬虫列表的重复,提高了爬取的效率

示例代码:

使用aggregate聚合操作的 m a t c h 先 匹 配 出 对 应 条 件 下 的 数 据 , 然 后 使 用 match先匹配出对应条件下的数据,然后使用 match使sample抽样

cursor = db.collection.aggregate([{'$match': {'scholarStatus': '0'}}, {'$sample': {'size': 500}}])
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

橙子园

期待你的鼓励!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值