【爬虫】 使用urllib下的 urlretrieve 下载图片时报urllib.error.HTTPError: HTTP Error 403: Forbidden

【爬虫】 使用urllib下的 urlretrieve 下载图片时报urllib.error.HTTPError: HTTP Error 403: Forbidden



解决办法: 对请求进行伪装

import urllib.request
import random

url = 'http://pic.monidai.com/img/202210052042294253562s.jpg'
filename = './1.jpg'
# 1. 构建请求头列表
ua_list = ['Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:102.0) Gecko/20100101 Firefox/102.0',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.5060.114 Safari/537.36 Edg/103.0.1264.62',
           'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0',
           'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0'
           ]

# 2. 构建IP代理池
IP_list = [{'http': 'http://123.123.0.246'},

           {'http': 'http://123.36.207.153'},

           {'http': 'http://123.230.210.218'},

           {'http': 'http://123.237.245.38'}]

# 3.创建handler对象
handler = urllib.request.ProxyHandler(random.choice(IP_list))

# 4. 创建opener对象
opener = urllib.request.build_opener(handler)

# 5. opener对象 添加请求头信息
opener.addheaders = [('User-Agent', random.choice(ua_list))]

# 6. opener设置为全局安装
urllib.request.install_opener(opener)

# 7.接着去下载就发现不会报 urllib.error.HTTPError: HTTP Error 403: Forbidden
urllib.request.urlretrieve(url=url, filename=filename)```


总结

以上就是今天要讲的内容,希望对大家有所帮助!!!

  • 1
    点赞
  • 0
    收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Tree_wws

你的鼓励将是我创作的最大动力

¥2 ¥4 ¥6 ¥10 ¥20
输入1-500的整数
余额支付 (余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值