python的parse函数没有执行——问题已解决

博客内容讲述了在使用Scrapy框架进行网页爬取时遇到因robots.txt禁止导致的问题,通过修改settings.py文件中的相关设置,成功解决了禁止爬取的问题。具体解决方案包括关注到日志中'Forbidden by robots.txt'提示,并调整设置以允许被禁止的请求。
摘要由CSDN通过智能技术生成

解决:
将settings.py文件中的ROBOTSTXT_OBEY = False修改为
ROBOTSTXT_OBEY = True

详细:
settings.py文件中的ROBOTSTXT_OBEY = True
在terminal输入>scrapy shell "https://www.baidu.com/"

[scrapy.core.engine] DEBUG: Crawled (200) <GET https://www.baidu.com/robots.txt> (referer: None)
[scrapy.downloadermiddlewares.robotstxt] DEBUG: Forbidden by robots.txt: <GET https://www.baidu.com/>

由上面可知Forbidden by robots.txt,被禁止了

修改settings.py为ROBOTSTXT_OBEY = False时,

[scrapy.downloadermiddlewares.redirect] DEBUG: Redirecting (meta refresh) to <GET http://m.baidu.com/?cip=220.178.74.6&baiduid=39BFD0B47012C3EBFBFF2E5DD9CA5BA9&from=84
4b&vit=fps?from=844b&vit=fps&index=&ssi

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值