scrapy工程调试(2day)

第一天,我们已经将工程新建好。如下图:

接着开始撸代码:

第一步:定义返回的信息

入门案例代码如下。打码的内容需要自己定义

第二步:执行爬虫

在工程目录,输入scrapy crawl '爬虫识别名称'  --这个爬虫识别名称即是第一步定义的name的内容

 

一般不会报错,如果报错,请检查代码,以及scrapy的包,是否下载完全(其他错误建议百度)

第三步,检查下载到本地的.html文件

第四步:编辑清洗数据的代码

第四步方法2:使用yield生成器(可以减少内存占用,节约资源,提高效率)

编辑完成后,在工程目录,调用命令窗口,执行:scrapy crawl baseinfoSpider -o baseinfo.json         # 这个是数据保存为json

此时会在工程目录出现json文件。其中的中文将会以二进制保存

第五步:保存返回信息后,可也使用json并转码,检查结果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值