scrapy redis 会从指定的redis队列中lpop出一条url,然后将url构造成requset对象,序列化之后放入spider:requests队列中,放多少条跟配置文件设置的concurrent_request有关,默认是16个。再从spider:requests队列中用zrange()取出对象来请求处理。如果16条在中间件处理中(parse_request/parse_response)中return了request对象,则这个请求依然会存在spider:requests队列中,不会被删除,所以这样子处理的话请求会一直在队列中直到被处理成功。这时需要我们业务控制次数,达到了次数就抛弃这个请求。
scrapy redis
最新推荐文章于 2025-05-01 01:00:53 发布
1039

被折叠的 条评论
为什么被折叠?



