首先安装scrapy-jsonrpc:
pip install scrapy-jsonrpc
打开你的爬虫项目中setting.py文件,加入如下代码进行配置:
EXTENSIONS = {
'scrapy_jsonrpc.webservice.WebService': 500,
}
JSONRPC_PORT = [6025]
JSONRPC_ENABLED = True
运行爬虫,报错:No module named 'scrapy.spider'
参考文章https://segmentfault.com/q/1010000019376356和https://github.com/kadimon/scrapy-jsonrpc后,知道至官方scrapy-jsonrpc未更新,需下载一个非官方插件,下载scrapy_jsonrpc,如下图
将scrapy_jsonrpc文件覆盖原来python安装目录下的python\Lib\site-packages\scrapy_jsonrpc,再次运行,爬虫可以正常启动,浏览器中打开http://localhost:6025/crawler,看到如下界面:
也不知道是否这样就算成功否,虽然有检测,感觉还是不太直观。