爬虫篇(2.2)使用scrapy-jsonrpc简单教程

首先安装scrapy-jsonrpc:

pip install scrapy-jsonrpc

打开你的爬虫项目中setting.py文件,加入如下代码进行配置:

EXTENSIONS = {
    'scrapy_jsonrpc.webservice.WebService': 500,
}
JSONRPC_PORT = [6025]
JSONRPC_ENABLED = True

运行爬虫,报错:No module named 'scrapy.spider'

参考文章https://segmentfault.com/q/1010000019376356https://github.com/kadimon/scrapy-jsonrpc后,知道至官方scrapy-jsonrpc未更新,需下载一个非官方插件,下载scrapy_jsonrpc,如下图

将scrapy_jsonrpc文件覆盖原来python安装目录下的python\Lib\site-packages\scrapy_jsonrpc,再次运行,爬虫可以正常启动,浏览器中打开http://localhost:6025/crawler,看到如下界面:

也不知道是否这样就算成功否,虽然有检测,感觉还是不太直观。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值