urllib2.HTTPError: HTTP Error 403: Forbidden的解决方案

在使用python爬取网络爬虫时,经常会以为目标网站因为禁止爬取网络爬虫而出现403 Forbidden的错误

问:为什么会出现403 Forbidden的错误
答:出现urllib2.HTTPError: HTTP Error 403: Forbidden错误的原因主要是由于目标网站禁止爬虫导致的,可以在请求加上请求头信息.

问:那么应该如何解决呢?
答:只要模拟正常浏览器上网即可,比如添加一个headers

req = urllib.request.Request(url="http://en.wikipedia.org"+pageUrl)
html = urlopen(req)

在req中添加一个headers,使其变为

 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'}
    req = urllib.request.Request(url="http://en.wikipedia.org"+pageUrl, headers=headers)
    # req = urllib.request.Request(url="http://en.wikipedia.org"+pageUrl)
    html = urlopen(req)

问:headers如何查找?
答:可以利用在浏览器开发者工具中的网络查找,比如火狐浏览器通过火狐浏览器查找请求头信息

问:伪装成浏览器还会不会出现其他问题?
答:会,比如目标网站会封掉查询次数过多ip地址

转载于:https://www.cnblogs.com/fonttian/p/7294845.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sklearn是一个流行的机器学习库,用于处理大量的机器学习任务。在使用sklearn时,有时可能会遇到urllib.error.httperror: http error 403: forbidden的错误。 这个错误通常表示Web服务器拒绝了我们的请求。很可能是由于我们试图从服务器上下载数据集或访问某个API时,没有提供身份验证或使用了无效的身份验证凭据。 要解决这个问题,我们可以采取以下步骤: 1. 检查URL:首先,确保我们提供的URL地址正确无误,且没有拼写错误。如果我们从在线资源中下载数据集,请确保URL正确。 2. 检查身份验证凭据:如果我们需要提供身份验证凭据,确保提供的凭据是正确的。通常,我们可以直接在代码中提供凭据或通过环境变量进行配置。检查我们是否正确设置了这些凭据。 3. 检查访问权限:确保我们有权访问所请求的资源。有时,服务器可能会要求我们具有特定权限或满足某些条件方可访问资源。如果我们没有相应的权限,则会出现403 Forbidden错误。 4. 联系服务器管理员:如果我们确认URL、身份验证凭据和访问权限都正确无误,但仍然收到403 Forbidden错误,那么问题可能出在服务器端。在这种情况下,我们可以联系服务器管理员或提供商,向他们报告这个问题,并请求他们的帮助解决这个错误。 总而言之,出现urllib.error.httperror: http error 403: forbidden错误通常是由于我们没有提供正确的身份验证凭据或没有相应的访问权限。通过仔细检查URL、调整身份验证凭据以及确认访问权限,我们可以解决这个问题。如果问题仍然存在,我们可以与服务器管理员或提供商联系寻求帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值