Python爬虫从入门到精通:(5)数据解析_使用正则进行图片数据的批量解析爬取_Python涛哥

45 篇文章 18 订阅

我们先来看下如何爬取图片数据?

  • 方式1:基于requests

  • 方式2:基于urllib

    urllib模块作用和requests模块一样,都是基于网络请求的模块

    requests问世后就迅速的替代了urllib模块

比如,我们现在准备爬取这张可爱的熊熊。
在这里插入图片描述

先右键复制图片地址:

img_url = 'https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fpic21.nipic.com%2F20120606%2F5137861_093119370162_2.jpg&refer=http%3A%2F%2Fpic21.nipic.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=jpeg?sec=1634794705&t=162f415928fef44dc6fb006639dd034d'

requests方式:

response = requests.get(url=img_url, headers=headers)
img_data = response.content  # content返回的是二进制形式的响应数据
with open('1.jpg', 'wb') as f:
    f.write(img_data)

urllib方式:

# 可以直接对url发起请求并且进行持久化存储
urllib.request.urlretrieve(img_url, './2.jpg')

上述两种爬起图片的操作不同之处是什么?

使用urllib的方式爬取图片无法进行UA伪装,而requests的方式可以。不需要UA伪装的情况下,使用urllib下载图片更方便!


使用正则批量爬取校花网中的图片数据
在这里插入图片描述

url = http://www.521609.com/daxuexiaohua

操作:需要将每一张图片的地址解析出来,然后对图片地址发起请求即可

写代码之前,我们先再来了解下 浏览器开发者工具

分析浏览器开发者工具中Elements和network这两个选项卡对应的页面源码数据有何不同之处?

  • Elements中包含的显示的页面源码数据为当前页面所有的数据加载完毕后对应的完整页面源码数据(包含了动态加载数据)

  • network中显示的页面源码数据仅仅为某一个单独的请求对应的响应数据(不包含动态加载数据)

在这里插入图片描述

结论:如果在进行数据解析的时候,一定是需要对页面布局进行分析,如果当前网站没有动态加载的数据就可以直接使用Elements对页面布局进行分析。否则只可以使用network对页面数据进行分析。

写代码之前

我们需要使用Elements捕获出图片地址,可以看到图片地址在源码里的<li>节点里:

在这里插入图片描述

复制<li>节点里的源码:

在这里插入图片描述

<li><a href="/daxuexiaohua/11124.html">
    <img src="/uploads/allimg/140717/1-140GF92J7-lp.jpg" width="160" height="220" border="0" alt=" 中国传媒大学上官青桐 ">
    </a><br>
	<a href="/daxuexiaohua/11124.html" class="title"><b>中国传媒大学上官青桐</b>
	</a>
</li>

现在开始写代码:(咱们课程主要讲解爬虫的抓包方式和解析方法,具体正则写法等基础教程,可以自行先去学习)

import re
import os

# 1.捕获到当前首页的页面源码数据
url1 = 'http://www.521609.com/daxuexiaohua'
page_text = requests.get(url=url1, headers=headers).text

# 2.从当前获取的页面源码数据中解析出图片地址,并用正则写出:
ex = '<li>.*?<img src="(.*?)" width=.*?</li>'

# 正则写好后我们现在开始获取
img_src_list = re.findall(ex, page_text)
print(img_src_list)
# 我们发现打印的是[]。这是因为源码里有空格和换行
# 代码应该是:
img_src_list = re.findall(ex, page_text, re.S)
print(img_src_list)
# 现在我们看出获取的地址只是部分,例:'/uploads/allimg/140717/1-140GF92J7-lp.jpg'
# 我们可以直接在网页上复制图片地址'http://www.521609.com/uploads/allimg/140717/1-140GF92J7-lp.jpg'
# 加上前缀,遍历列表,获取完整地址.进行请求

# 新建个文件夹存储图片
dirName = 'ImgLibs'
if not os.path.exists(dirName):
    os.mkdir(dirName)

for src in img_src_list:
    src = 'http://www.521609.com' + src
    imgPath = dirName + '/' + src.split('/')[-1]  # 图片名称
    urllib.request.urlretrieve(src, imgPath)
    print(imgPath, '下载成功!!!')

结果我们就看到了许多小姐姐照片了!

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
以下是使用Python爬取百度图片并保存的示例代码: ```python # 导入依赖库 import requests import re import os # 设置搜索关键字 keyword = "美食" # 设置图片保存路径 save_path = "./images/" # 构造百度图片搜索的URL url = "https://image.baidu.com/search/index?tn=baiduimage&word={}".format(keyword) # 发送HTTP请求并获取响应 response = requests.get(url) # 使用正则表达式从响应内容中提取图片URL列表 img_urls = re.findall('"objURL":"(.*?)",', response.text, re.S) # 遍历图片URL列表并下载保存图片 for i, img_url in enumerate(img_urls): try: # 发送HTTP请求并获取响应 response = requests.get(img_url, timeout=10) # 设置图片保存路径 img_path = os.path.join(save_path, "{}.jpg".format(i)) # 保存图片 with open(img_path, "wb") as f: f.write(response.content) print("成功下载第{:>3d}张图片!".format(i+1)) except Exception as e: print("下载第{:>3d}张图片失败:{}".format(i+1, e)) ``` 解释一下上述代码的主要步骤: 1. 设置搜索关键字和图片保存路径 2. 构造百度图片搜索的URL 3. 发送HTTP请求并获取响应 4. 使用正则表达式从响应内容中提取图片URL列表 5. 遍历图片URL列表并下载保存图片 需要注意的是,这种方式只是简单的使用正则表达式从响应内容中提取图片URL,而没有使用任何API,因此可能存在一些不稳定性和容易被反爬虫机制封禁的风险。建议在使用时注意合理使用代理、设置请求头等防反爬措施。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值