网络图片爬虫(几个简单步骤实现网页图片的爬取,详细步骤,超详细,简单易懂)



网络图片爬取

前提准备

安装好开发库:Beautifulsoup4和requests,这两个库主要用于python爬虫,简单安装过程点这里开发库安装

主要分为以下几个部分:

1. 分析网页,查看索要爬取网页的源代码(按F12或者CTRL+SHIFT+C),选中你想要爬取的图片中的任意一个,下面以

爱奇艺的首页为例,注意下图:
请添加图片描述
可以看到图片标签,标识属性class,图片的url属性src(这三个接下来会用到)

2. 读取网页的内容

代码如下:

#导入两个开发库
import urllib.request 
from bs4 import BeautifulSoup
#定义图像的url地址(就是你想要爬取的网址)
domain = 'https://www.iqiyi.com/'
#在大多数网站都会有反爬取机制,所以我们这里以修改UserAgent的方式来模拟浏览器的形式来骗过该机制
req = urllib.request.Request(domain)
req.add_header('Host','www.iqiyi.com')
req.add_header('Referer','https://www.iqiyi.com/')
req.add_header('User-Agent','fake-client')
#接下来通过urllib.request的urlopen()函数来打开网页并发出请求,获得数据,再通过read()函数读取获得的数据,代码如下:
html = urllib.request.urlopen(req)
info = html.read()
print('打印info','\n',info)#将结果打印出来,验证是否成功

在此运行一下,效果如图:请添加图片描述

能够获取到数据,基本上上边几步就算成功了

3. 获取图片的数据

在第二步我们获取到了网页内的数据,那么我们就可以从获取的网页数据中筛选出我们想要的图片数据

soup = BeautifulSoup(info,'html.parser')
#这里使用开发库BeautifulSoup4的一个类BeautifulSoup,来实例化我们的对象info,
#让其相当于一个页面,使其HTML页面结构成为BeautifulSoup的属性,
#函数的第二个参数是指定使用HTML解释器
all_img = soup.find_all('img',class_ = 'i71-img')#通过find_all()函数进行筛选,筛选条件是img标签并且表示属性class为i71-img
print("打印all_img",all_img)#打印输出筛选出的图片信息

4.下载图片

这里我们获取到了图片的信息,其中src属性里是图片的url地址,我们通过这个地址就可以下载图片了,下载代码如下:

#使用for循环遍历all_img来定义下载后图片的名称,再使用urllib.request.urlretrieve()函数来下载图片
i=0
for img in all_img:
    i=i+1
    image_name = '%s.jpg' % i
    #设置图片的保存位置,记得提前创建好文件夹,有能力的可以通过python来自动创建
    urllib.request.urlretrieve('https:'+img['src'],'D:\\12345\\'+image_name)
    print('第%s张下载完成' %i,image_name)
print('下载完成')

运行结果如下
请添加图片描述
最后查看一下你保存图片的文件夹,就可以看到爬取到的所有图片了

  • 18
    点赞
  • 129
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 10
    评论
好的,以下是用Python爬虫爬取图片步骤: 1. 导入需要的库:requests、os、urllib。 2. 使用requests库发送请求,获取网页的HTML源代码。 3. 使用BeautifulSoup库解析HTML源代码,获取图片的URL地址。 4. 使用os库创建一个本地文件夹,用于存储下载的图片。 5. 使用urllib库下载图片,并保存在本地文件夹中。 6. 将上述步骤封装成函数,可用于批量下载图片。 下面是一个简单的代码示例: ``` import requests import os from bs4 import BeautifulSoup import urllib def download_images(url, folder_path): # 发送请求,获取HTML源代码 response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') # 查找所有的图片标签 img_tags = soup.findAll('img') # 创建本地文件夹 os.makedirs(folder_path, exist_ok=True) # 遍历所有图片标签,下载图片并保存到本地文件夹中 for img_tag in img_tags: img_url = img_tag.get('src') if img_url: img_path = os.path.join(folder_path, img_url.split('/')[-1]) urllib.request.urlretrieve(img_url, img_path) # 调用函数,下载图片 download_images('https://www.example.com', 'images') ``` 上述代码中,函数`download_images`接受两个参数:`url`表示要下载图片网页URL地址,`folder_path`表示要保存下载图片的本地文件夹路径。函数使用requests库发送请求,获取HTML源代码,然后使用BeautifulSoup库解析HTML代码,查找所有的图片标签,遍历所有图片标签,下载图片并保存到本地文件夹中。最后调用`download_images`函数,传入相应的参数即可完成图片下载。
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

只会偷懒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值