【爬虫】 使用urllib下的 urlretrieve 下载图片时报urllib.error.HTTPError: HTTP Error 403: Forbidden

文章介绍了在使用Python的urllib库下载图片时遇到HTTPError403:Forbidden错误的解决方法,通过伪装User-Agent和使用IP代理来避免被服务器禁止。具体步骤包括构建不同的User-Agent列表,创建ProxyHandler以随机选择IP代理,最后安装opener并下载图片。
摘要由CSDN通过智能技术生成

【爬虫】 使用urllib下的 urlretrieve 下载图片时报urllib.error.HTTPError: HTTP Error 403: Forbidden



解决办法: 对请求进行伪装

import urllib.request
import random

url = 'http://pic.monidai.com/img/202210052042294253562s.jpg'
filename = './1.jpg'
# 1. 构建请求头列表
ua_list = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:102.0) Gecko/20100101 Firefox/102.0',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.5060.114 Safari/537.36 Edg/103.0.1264.62',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0',
           'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0'
           ]

# 2. 构建IP代理池
IP_list = [{'http': 'http://123.123.0.246'},

           {'http': 'http://123.36.207.153'},

           {'http': 'http://123.230.210.218'},

           {'http': 'http://123.237.245.38'}]

# 3.创建handler对象
handler = urllib.request.ProxyHandler(random.choice(IP_list))

# 4. 创建opener对象
opener = urllib.request.build_opener(handler)

# 5. opener对象 添加请求头信息
opener.addheaders = [('User-Agent', random.choice(ua_list))]

# 6. opener设置为全局安装
urllib.request.install_opener(opener)

# 7.接着去下载就发现不会报 urllib.error.HTTPError: HTTP Error 403: Forbidden
urllib.request.urlretrieve(url=url, filename=filename)```


总结

以上就是今天要讲的内容,希望对大家有所帮助!!!

当你使用 urllib 库进行网络请求时,出现 HTTP Error 403: Forbidden 错误,这意味着服务器拒绝了你的请求。这通常是因为你的请求被防火墙或网站服务器拦截。 有一些方法可以解决这个问题: 1. 修改 User-Agent 有些网站会根据 User-Agent 来判断请求的来源,如果 User-Agent 不合法,就会拒绝请求。因此,你可以通过修改 User-Agent 来模拟浏览器请求。例如: ```python import urllib.request url = 'http://www.example.com/' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'} req = urllib.request.Request(url, headers=headers) response = urllib.request.urlopen(req) html = response.read() ``` 2. 使用代理IP 如果你的 IP 被网站服务器封禁,可以使用代理 IP 来绕过限制。例如: ```python import urllib.request url = 'http://www.example.com/' proxy = urllib.request.ProxyHandler({'http': 'http://127.0.0.1:8888'}) opener = urllib.request.build_opener(proxy) urllib.request.install_opener(opener) response = urllib.request.urlopen(url) html = response.read() ``` 其中,`http://127.0.0.1:8888` 是代理服务器的地址。你可以在网上找到一些免费的代理服务器,在代码中修改为对应的地址即可。 3. 等待一段时间再请求 有些网站会对频繁请求进行限制,你可以等待一段时间再进行请求,或者减少请求频率。如果你是在爬取大量数据,建议使用异步爬虫库,如 asyncio、aiohttp 等,可以提高效率,并减少请求频率。 以上是一些常见的方法,但不保证一定可以解决问题。在实际操作中,还需要根据具体情况进行调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值