scapy爬虫-Url去重

dont_filter=True

可以看到,当parse的第一个断点设置在第54行时能运行成功。

接下来将断点设置在parse_news函数中。

照理来说应该会正常输出item_1的内容,但是为什么没有办法正确输出呢?而且也没有报错啊!

调试的时候,发现回调函数 parse_detail 没有被调用,这可能就是被过滤掉了,查看 scrapy 的输出日志 offsite/filtered 会显示过滤的数目。

因为被去重过滤了,所以才调试不了啊!

既然知道是因为被过滤那问题就好解决了。

scrapy会对request的URL去重(RFPDupeFilter),加上dont_filter则告诉它这个URL不参与去重。

两种方法能够使 requests 不被过滤: 
1. 在 allowed_domains 中加入 url 

2. 在 scrapy.Request() 函数中将参数 dont_filter=True 设置为 True

在scrapy的文档中就有提及这个问题

文档

If the spider doesn’t define an allowed_domains attribute, or the attribute is empty, the offsite middleware will allow all requests.

If the request has the dont_filter attribute set, the offsite middleware will allow the request even if its domain is not listed in allowed domains


所以接下来我们改一下

然后答案就出现了,哈哈哈,顿时觉得爬虫很好玩。
--------------------- 
作者:腾阳 
来源:CSDN 
原文:https://blog.csdn.net/weixin_41931602/article/details/80397192 
版权声明:本文为博主原创文章,转载请附上博文链接!

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值