关于Scrapy的start_requests中的所有Requests不一口气加入请求队列这件事

本文详细探讨了Scrapy的源码,重点分析了Crawler、Engine和Scraper类的职责与主要方法。文章指出,Scrapy的start_requests方法不会一次性将所有Requests加入请求队列,而是在完成第一个请求后才处理后续请求。这可能导致在有循环请求的情况下,队列中缺少部分请求。建议在有循环回调的情况下,利用parse函数将所有start_requests的请求优先加入队列,以避免爬虫停滞。
摘要由CSDN通过智能技术生成

Scrapy源码阅读记录


因为爬虫需求比较特殊(毕设要做社交网络相关的内容),网上的博客写的都比较拉,互相抄来抄去,找不到有用的东西,只好去啃源码。

主要围绕着scrapy.core包,具体流程就是从爬虫运行的顺序开始分析,各个从上至下基本上是按顺序来的。

image-20210221135106191

爬虫启动

这部分没找到详细的流程,大致是执行了scrapy.cmdlineexecute方法。

Crawler类

职责

这个类负责初始启动scrapy的2个部件,包括engine用户自定义的spider

此外还提供一个CrawlRunner类给用户做参考,让用户可以自定义爬虫爬取的调度方法

主要方法

  1. 构造方法

    从settings.py读取各种有关设置,并通过反射设置日志、统计数据。

  2. crawl方法

        @defer.inlineCallbacks
        def crawl(self, *args, **kwargs):
            assert not self.crawling, "Crawling already taking place"
            self.crawling = True
    
            try:
                self.spider = self._create_spider(*args, **kwargs)
                self.engine = self._create_engine()
                #初始化start_requests为当前任务的spider的start_requests方法
                start_requests = iter(self.spider.start_requests())
                #engine启动
                yield self.engine.open_spider(self.spider, start_requests)
                yield defer.maybeDeferred(self.engine.start)
            except Exception:
                # In Python 2 reraising an exception after yield discards
                # the original traceback (see https://bugs.python.org/issue7563),
                # so sys.exc_info() workaround is used.
                # This workaround also works in Python 3, but it is not needed,
                # and it is slower, so in Python 3 we use native `raise`.
                if six.PY2:
                    exc_info = sys.exc_info()
    
                self.crawling = False
                if self.engine is not None:
                    yield self.engine.close()
    
                if six.PY2:
                    six.reraise(*exc_info)
                raise
    
        def _create_spider(self, *args, **kwargs):
            #从命令、配置文件等中创建对应的spider(对应命令scrapy crawl xxxSpider)
            return self.spidercls.from_crawler(self, *args, **kwargs)
    
        def _create_engine(self):
            #创建engine对象
            return ExecutionEngine(self, lambda _: self.stop())
    

Engine类

职责

这个类负责各种调度,包括request的出入、response的出入等。

主要方法

  1. 构造方法

    设置了crawler(这里的crawler就是上面提到过的Crawler类对象的引用)和engine的状态,以及从settings.py读取设置来生成相应的scheduler的配置(注意是配置,scheduler对应的队列啥的还没配套)、downloader,以及处理parse函数响应返回的ItemRequestScraper类对象

  2. open_spider方法

    @defer.inlineCallbacks
        def open_spider(self, spider, start_requests=(), close_if_idle=True):
            assert self.has_capacity(), "No free spider slot when opening %r" % \
                spider.name
            logger.info("Spider opened", extra={
         'spider': s
### 回答1: `CONCURRENT_REQUESTS_PER_DOMAIN` 是 Scrapy 一个设置并发请求数量的参数,它指定了同一域名下的并发请求数量。默认情况下,它的值为 8,意味着在同一时间内,Scrapy 最多会发送 8 个请求到同一域名下。如果需要调整该参数,可以在 Scrapy 的配置文件设置: ```python CONCURRENT_REQUESTS_PER_DOMAIN = 16 # 将并发请求数量设置为 16 ``` 需要注意的是,同时也可以设置 `CONCURRENT_REQUESTS_PER_IP` 参数,它指定了同一 IP 地址下的并发请求数量。默认情况下,它的值为 0,表示不限制并发请求数量。但是在某些情况下,服务器可能会对同一 IP 地址下的访问频率进行限制,因此需要适当调整该参数。 ### 回答2: scrapy的CONCURRENT_REQUESTS_PER_DOMAIN是指在同一个域名下同时发送的请求的数量限制。通过设置CONCURRENT_REQUESTS_PER_DOMAIN,可以控制爬虫同时访问同一域名下页面的并发请求数量,从而限制爬虫对目标网站的访问频率。 这个设置参数可以在爬虫的settings.py文件进行配置。默认情况下,CONCURRENT_REQUESTS_PER_DOMAIN的值为8,即一个域名下最多同时发送8个请求。 通过调整CONCURRENT_REQUESTS_PER_DOMAIN的值,可以控制对目标网站的访问速度和并发数。如果设置的值较大,爬虫可以更快地抓取数据,但也会带来更高的对目标网站的访问压力和风险。而如果设置的值较小,访问速度会较慢,但可以更好地保护爬虫不被目标网站封禁。 在实际应用,可以根据目标网站的反爬策略、自身机器的性能以及所需的数据抓取速度来配置CONCURRENT_REQUESTS_PER_DOMAIN的值。例如,对于反爬策略比较严格的网站,可以将该值设置为较小的数值,以减少被封禁的风险;而对于性能强大的服务器和较宽松的反爬策略的网站,可以适当增该值,提高爬虫的抓取效率。 总之,通过设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以有效控制爬虫对目标网站的并发请求数量,以达到更好的抓取效果和保护爬虫的目的。 ### 回答3: Scrapy的CONCURRENT_REQUESTS_PER_DOMAIN是一个设置并发请求的参数,它控制着每个域名下的并发请求的数量。换句话说,它决定了Scrapy能够同时发送给同一域名的请求数量。 通过设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以控制对同一域名的同时请求数量,从而避免对目标网站造成过大的压力或被封IP的风险。这个参数的默认值是8,这意味着Scrapy可以同时发送8个请求给同一域名。 但是,需要注意的是,该参数并不限制对不同域名的并发请求数量。如果需要限制整个应用程序的并发请求数量,可以使用CONCURRENT_REQUESTS参数来控制。 合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数有助于平衡Scrapy爬虫的速度和稳定性。如果将该值设得过高,可能会对目标网站造成过大的压力导致请求失败;而将该值设得过低,则可能会降低爬取效率。 在实际应用,我们可以根据目标网站的反应速度和服务器负载情况来合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数。可以先尝试将其设为较低的值,观察爬虫的稳定性和目标网站的反应情况,再进行调整。 总之,通过合理设置CONCURRENT_REQUESTS_PER_DOMAIN参数,可以在一定程度上控制Scrapy爬虫对同一域名的并发请求数量,从而提高爬取效率、避免对目标网站造成过大压力。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值