python爬取网络图片_python学习之路(七):牛刀小试,爬取网络图片下载到电脑...

自学python今天刚好一星期,今天准备来写第一个正式的脚本代码,以前知道python,是从网络爬虫才开始知道python的。最开始对python的印象就是网络爬虫,所以今天的第一个python就写一个简单的爬虫脚本。

在网上找了一个壁纸网页(http://www.win4000.com/zt/fengjing_1.html),想把里面的壁纸下载保存到电脑,但是一张一张的下载太费力气了,所以就写一个python爬取里面的图片地址,然后保存在电脑上。

59350001fecdbebe8c54

写这个脚本用到前面几篇文章里讲到的一些知识点有:

1、 函数的创建与调用

2、 内置模块的导入

3、 For循环

4、 字符串编码(这个前面几篇里没讲过)

思路:

在这个脚本中用到python内置的模块有urllib模块,和re模块。Urllib模块是python内置的一个HTTP请求模块。Re模块是python内置的一个正则表达式模块。我们用urllib请求到网页的源代码,然后用正则表达式匹配出图片的下载地址。然后用for循环一张一张的把图片下载到电脑。

实现:

1、新建一个py文件,导入urllib和re模块。

593300041cb439777cc7

Urllib里面包括很多子模块。包括以下模块

urllib.request 请求模块

urllib.error 异常处理模块

urllib.parse url解析模块

urllib.robotparser robots.txt解析模块

在这个脚本中只用到请求模块,所以就只导入urllib.request就好了。

2、写一个名为getHtml的函数,然后用urllib.request请求到网页源代码

59350001ffda079baf92

给这个函数一个URL参数,然后用urllib.request请求到网页源代码,上面的变量html就是网页的源代码。

Html.decode(‘utf-8’)是网页的编码,如果编码不对,请求到的网页源码很可能是乱码的。我们可以在网页中用鼠标右键,然后查看网页源代码。

5930000494a762368bf2

在源代码的头部会有这个网页的编码,我门根据这个编码写到代码里。

593100046609c72c1b26

3、写一个名为getImg的函数,然后用re模块从上面一步中得到的网页源代码筛选出图片的url

5931000466352f4c0b8f

在网页中鼠标右键查看源代码,可以看到这个网页的图片真实地址是放在img标签的data-original属性里面。

593000049554d8d9b157

所以我们的正则表达式就写成这样

reg = r'data-original = "(.+?\.jpg)"'

注意data-original后面的等于号两边都有空格,所以在正则表达式里也要打空格。

函数返回的imglist就是图片的url列表。

正则表达式也不是三言两语能说清的,想了解的可以阅读百度百科正则表达式:

https://baike.baidu.com/item/正则表达式/1700215

百度百科里面有很详细的介绍。

5、写一个名为downImg的函数

59340002640992b607ea

用for循环把上一步得到的imglist循环下载到电脑。调用urllib模块中的urllib.request.urlretrieve函数,把图片保存在电脑里。我这里是保存在D盘的images目录下

6、 调用前面的写3个函数。

首先调用getHtml传入网页连接,得到源代码html

5934000264a47476c254

然后调用getImg传入源代码,得到图片列表imglist

最后调用downImg传入图片列表开始下载

完整代码如下:

59300004970e5761c328

运行结果:

5935000202ad7d166534

电脑存D盘的images目录:

59330004206e43396d60

再加个循环,我们可以把前几页所有的图片都下载下来。把网页翻到第二页。查看第二页的连接。

可以发现一个规律,网站地址的.thml前面就是下划线+页数。可以根据这个规律来下载指定页数内的所有图片。只需在调用上面的三个函数的时候,加个循环拼接网页的地址,循环调用即可。

5930000497e5db27c3cd

给downImg函数加个页数pageNum的参数。然后保存图片命名以页数开头命名。加个页数开头以防止后面一页把前面一页下载的图片给覆盖了。

运行代码后,前五页145张图片都已经下载到电脑里了。

5935000203b1ce02291a

当然上面爬取数据的方式是最简单的,数据量多的话效率不是很理想,现在有很多优秀的第三方模块都可以代替内置的模块,有时间的话我找一个好用的第三方爬虫模块来说一下。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用Python爬取百度图片并保存的示例代码: ```python # 导入依赖库 import requests import re import os # 设置搜索关键字 keyword = "美食" # 设置图片保存路径 save_path = "./images/" # 构造百度图片搜索的URL url = "https://image.baidu.com/search/index?tn=baiduimage&word={}".format(keyword) # 发送HTTP请求并获取响应 response = requests.get(url) # 使用正则表达式从响应内容中提取图片URL列表 img_urls = re.findall('"objURL":"(.*?)",', response.text, re.S) # 遍历图片URL列表并下载保存图片 for i, img_url in enumerate(img_urls): try: # 发送HTTP请求并获取响应 response = requests.get(img_url, timeout=10) # 设置图片保存路径 img_path = os.path.join(save_path, "{}.jpg".format(i)) # 保存图片 with open(img_path, "wb") as f: f.write(response.content) print("成功下载第{:>3d}张图片!".format(i+1)) except Exception as e: print("下载第{:>3d}张图片失败:{}".format(i+1, e)) ``` 解释一下上述代码的主要步骤: 1. 设置搜索关键字和图片保存路径 2. 构造百度图片搜索的URL 3. 发送HTTP请求并获取响应 4. 使用正则表达式从响应内容中提取图片URL列表 5. 遍历图片URL列表并下载保存图片 需要注意的是,这种方式只是简单的使用正则表达式从响应内容中提取图片URL,而没有使用任何API,因此可能存在一些不稳定性和容易被反爬虫机制封禁的风险。建议在使用时注意合理使用代理、设置请求头等防反爬措施。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值