问题描述:
用scrapy爬虫时,返回403错误,说明该网站对爬虫有所限制
解决方法:
在setting.py文件中增加USER_AGENT配置:
USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
如果后续还一直是403,说明ip地址可能被该网站封了
问题描述:
用scrapy爬虫时,返回403错误,说明该网站对爬虫有所限制
解决方法:
在setting.py文件中增加USER_AGENT配置:
USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
如果后续还一直是403,说明ip地址可能被该网站封了