利用Python爬虫爬取网页图片

该文章介绍了如何利用Python的requests模块发送HTTP请求获取网页内容,然后结合正则表达式re进行HTML解析,查找并下载网页中的图片。示例代码展示了从指定URL抓取并保存图片到本地的过程。
摘要由CSDN通过智能技术生成

利用Python爬虫爬取网页图片

通过运用re和requests模块,re是正则表达式,requests是python自带的爬操作url的库,在本题中先导入requests模块利用自定义的函数向指定的url发生访问请求,再定义相应的类文件方法对访问的页面读取内容,并返回字符串;再用另外一个函数对返回的字符串进行匹配相应的字符串,找到图片的HTML进入爬取,利用循环对爬取的图片进行保存。

import requests 
import re 
#url=input('输入网址:')
url='http://www.yoka.com/beauty/fragrance/2020/0618/54028501109099.shtml'
page=requests.get(url).text
res=re.compile(r'src="(http.+?.jpg)"')
reg=re.findall(res,page)

num=1
for i in reg:
    a=requests.get(i)
    f=open('D:\\TP\\%s.jpg'%num,'wb')
    f.write(a.content)
    f.close
    print('第%s张图片下载完毕'%num)
    num+=1
好的,以下是用Python爬虫爬取图片的步骤: 1. 导入需要的库:requests、os、urllib。 2. 使用requests库发送请求,获取网页的HTML源代码。 3. 使用BeautifulSoup库解析HTML源代码,获取图片的URL地址。 4. 使用os库创建一个本地文件夹,用于存储下载的图片。 5. 使用urllib库下载图片,并保存在本地文件夹中。 6. 将上述步骤封装成函数,可用于批量下载图片。 下面是一个简单的代码示例: ``` import requests import os from bs4 import BeautifulSoup import urllib def download_images(url, folder_path): # 发送请求,获取HTML源代码 response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') # 查找所有的图片标签 img_tags = soup.findAll('img') # 创建本地文件夹 os.makedirs(folder_path, exist_ok=True) # 遍历所有图片标签,下载图片并保存到本地文件夹中 for img_tag in img_tags: img_url = img_tag.get('src') if img_url: img_path = os.path.join(folder_path, img_url.split('/')[-1]) urllib.request.urlretrieve(img_url, img_path) # 调用函数,下载图片 download_images('https://www.example.com', 'images') ``` 上述代码中,函数`download_images`接受两个参数:`url`表示要下载图片的网页URL地址,`folder_path`表示要保存下载图片的本地文件夹路径。函数使用requests库发送请求,获取HTML源代码,然后使用BeautifulSoup库解析HTML代码,查找所有的图片标签,遍历所有图片标签,下载图片并保存到本地文件夹中。最后调用`download_images`函数,传入相应的参数即可完成图片下载。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有品位的小丑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值