爬虫直接将网站信息存储到本地

1.利用urllib.request.urlretrieve(url, filename=None, reporthook=None, data=None)方法即可实现,但是缺点就是占用缓存,需要不断使用urllib.request.urlcleanup()方法来清除缓存。
2.urllib.request.unquote()方法是解码
…quote()方法是编码
3.500服务器 400访问出错 300缓存 200成功
4.urllib.request里面的info()方法是将请求的环境有关信息显示出来

使用Python爬虫网页图片保存到本地有很多方法,这里介绍两种比较常用的方法。 方法一:使用requests库下载图片并保存到本地 ```python import requests import os # 目标图片URL url = 'https://www.example.com/image.jpg' # 创建目标文件夹 if not os.path.exists('images'): os.mkdir('images') # 下载并保存图片 img_data = requests.get(url).content img_path = os.path.join('images', 'image.jpg') with open(img_path, 'wb') as f: f.write(img_data) print(f'Saved {img_path}') ``` 这个程序使用 `requests` 库下载图片,并将图片内容保存到 `img_data` 变量中。然后,程序指定图片保存的路径,并使用 `open` 函数将图片内容写入文件中。最后,程序输出保存成功的消息并结束。 方法二:使用urllib库下载图片并保存到本地 ```python import urllib.request import os # 目标图片URL url = 'https://www.example.com/image.jpg' # 创建目标文件夹 if not os.path.exists('images'): os.mkdir('images') # 下载并保存图片 img_path = os.path.join('images', 'image.jpg') urllib.request.urlretrieve(url, img_path) print(f'Saved {img_path}') ``` 这个程序使用 `urllib.request` 库下载图片,并将图片保存到指定路径中。程序使用 `urlretrieve` 函数下载图片,并指定保存路径和文件名。最后,程序输出保存成功的消息并结束。 以上两种方法都可以实现将网页图片保存到本地的功能。其中,第一种方法使用 `requests` 库,需要先使用 `requests.get` 函数获取图片的二进制数据,然后再将数据写入文件中。第二种方法使用 `urllib.request` 库,可以直接使用 `urlretrieve` 函数下载图片并保存到本地
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值