爬虫卡死问题 带图片保存的urlretrieve 和urlopen

爬虫卡死问题 带图片保存的urlretrieve 和urlopen

之前做个小爬虫爬点文字混合图片的东西,数据量小还可以处理,数据一大自己假死,也没有错误提示,搞得自己有点烦,在这总结一下:


原保存图片子函数

########使用当前执行时间来命名图片,lujing为图片存储位置,findgeshi为 正则表达式从网址中提取图片格式,用try和except来处理异常,返回 图片名称:########
def save_pictureurl(url,t0,lujing):
try:
urllib.request.urlopen(url,timeout=5)
t1 = time.clock()
timee = t1 - t0#形成时钟的名字
tupiangeshi = re.search(findgeshi, url)#确定格式是png还是gif还是jpg
ID1 = lujing +’\’+ str(timee) + ‘.’ + tupiangeshi.group(0)#串成总ID
ID2 = str(timee) + ‘.’ + tupiangeshi.group(0)
urllib.request.urlretrieve(url, ID2)
return (ID1)
except urllib.request.URLError as e:#网址无法访问的错误返回
print(“error”,e)
return (‘ERROR HTTP’)
except socket.timeout:
print(‘timeouterror’)
return (‘TIMEERROR HTTP’)
except :
return (‘UNKNOWN ERROR’)

“`

错误原因

本来想用openurl先打开网址检查是否能打开网址,然后用urlretrieve保存图片,但是还是会有假死现象,原来如果urlretrieve在执行的时候本来可以打开的网址由于网速原因没有打开所以没有返回,也会导致假死,而且urlretrieve没有timeout设置值所以换成文件指令的读写命令

更改后的保存图片子函数

#####open、file.write 实现读写,urlopen 判断是否超时#######
def save_pictureurl(url,t0,lujing):
try:
aa=urllib.request.urlopen(url,timeout=5).read()
t1 = time.clock()
timee = t1 - t0#形成时钟的名字
tupiangeshi = re.search(findgeshi, url)#确定格式是png还是gif
ID1 = lujing +’\’+ str(timee) + ‘.’ + tupiangeshi.group(0)#串成总ID
# ID2 = str(timee) + ‘.’ + tupiangeshi.group(0)
# urllib.request.urlretrieve(url, ID2)
with open(ID1, ‘wb’) as file:
file.write(aa)
file.close()
return (ID1)
except urllib.request.URLError as e:#网址无法访问的错误返回
print(“error”,e)
return (‘ERROR HTTP’)
except socket.timeout:
print(‘timeouterror’)
return (‘TIMEERROR HTTP’)
except :
return (‘UNKNOWN ERROR’)

可以开始愉快的爬辣

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python爬虫将网页图片保存到本地有很多方法,这里介绍两种比较常用的方法。 方法一:使用requests库下载图片保存到本地 ```python import requests import os # 目标图片URL url = 'https://www.example.com/image.jpg' # 创建目标文件夹 if not os.path.exists('images'): os.mkdir('images') # 下载并保存图片 img_data = requests.get(url).content img_path = os.path.join('images', 'image.jpg') with open(img_path, 'wb') as f: f.write(img_data) print(f'Saved {img_path}') ``` 这个程序使用 `requests` 库下载图片,并将图片内容保存到 `img_data` 变量中。然后,程序指定图片保存的路径,并使用 `open` 函数将图片内容写入文件中。最后,程序输出保存成功的消息并结束。 方法二:使用urllib库下载图片保存到本地 ```python import urllib.request import os # 目标图片URL url = 'https://www.example.com/image.jpg' # 创建目标文件夹 if not os.path.exists('images'): os.mkdir('images') # 下载并保存图片 img_path = os.path.join('images', 'image.jpg') urllib.request.urlretrieve(url, img_path) print(f'Saved {img_path}') ``` 这个程序使用 `urllib.request` 库下载图片,并将图片保存到指定路径中。程序使用 `urlretrieve` 函数下载图片,并指定保存路径和文件名。最后,程序输出保存成功的消息并结束。 以上两种方法都可以实现将网页图片保存到本地的功能。其中,第一种方法使用 `requests` 库,需要先使用 `requests.get` 函数获取图片的二进制数据,然后再将数据写入文件中。第二种方法使用 `urllib.request` 库,可以直接使用 `urlretrieve` 函数下载图片保存到本地。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值