初学者很多是在终端启动scrapy,但是真正实战中我们可以另外创建一个启动脚本,方便我们管理项目的启动
在Scrapy项目根目录下创建一个 run.py 的文件
from scrapy import cmdline
cmdline.execute("scrapy crawl ceshi_spider".split())
1
2
当我们运行这个文件, Scrapy项目能正常启动。但是如果有多个爬虫文件需要启动,那就要要创建多个运行文件了,这样显得很麻烦。那我们可以用以下几种方式来运行爬虫文件。