Scrapy:[scrapy.core.engine] DEBUG: Crawled (200)解决尝试

在学习Scrapy时,遇到大量DEBUG和httperror报错。经过检查链接有效性、设置、代码和尝试网络延迟后,发现频繁请求可能导致IP被封锁。添加time.sleep(1)以降低请求频率,问题得到解决。提醒新手注意控制请求间隔,避免数据获取受阻。
摘要由CSDN通过智能技术生成

在学习Scrapy用法的实验过程中,拟“得到”某网站信息时,出现大量的[scrapy.core.engine] DEBUG和[scrapy.spidermiddlewares.httperror]报错。

 刚学习Scrapy视频半个小时,顿时有点懵B!抱着解决问题就是最好的学习收获的原则,开始解决尝试。

第一步:确认传给具体解析def_prase的href链接有效性。结果:网页均可以在浏览器中正常打开。

第二部:核对参数setting和items的py文件中的配置是否异常。结果:正常。

第三步:再次检查代码是否出现“低级”错误。结果:正常。

第四步:网上查找类似案例套用解决。结果:对应不上。

第五步:“死马当活马医”自己分析原因。具体思路如下:

1、网络正常,网页正常打开正常、配置正常、代码正常,说明自身和通道环节基本上没有问题。

2、首页(目类内容)获取正常,进入目类中具体页面获取数据时报错,估算一下,获取量有点频繁,是否跟“得到”cateyes数据时被关“小黑屋”类似。当时,正常调试具体代码,但提前写了获取N页数据,run了几次就获取不到了,页面提示IP频繁,暂不能访问。

3、尝试加一段time.sleep(1)尝试效果。结果,具体页面数据运行正常。

结论:

在本机IP做“得到”网站数据的实验时,切记!最好设定每页的延迟时间。特别时新手入门时,每部验证代码时,不自觉的“scrapy crwal XXXXX”,多刷几次,数据死活获取不到会让人崩溃和状况。

注:

以上行为系学习研究的测试活动,所获取到数据已删除或不保存。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值