Python爬取网站页面展示图片

本文介绍了如何使用Python的requests和正则表达式技术,从指定旅游网站抓取展示的图片,包括设置User-Agent、获取页面文本、定位图片URL并下载图片的过程。
摘要由CSDN通过智能技术生成

在上次尝试了爬取网页的一些文字数据之后,就想在爬取一下网站的图片

那么就开始吧!

我自己选择了一个旅游网站,打算爬取以下展示的图片

基础的代码准备一下,设置需要爬取的url,还有UA检测,然后就是需要用到re模块

import requests
import re

if __name__=="__main__":

    url="https://www.uzai.com/"

    headers = {
   'User-Agent': "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N)                      
    AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Mobile 
    Safari/537.36Edg/122.0.0.0"
    }

我首先利用request.get()请求获取一下整张网页的文本数据

然后利用python的正则表达式对图片所在的HTML标签数据内容进行一个获取

    #使用通用爬虫对整张页面进行爬取

    page_text=requests.get(url=url,headers=headers).text

    #使用聚焦爬虫对页面中所有图片进行爬取

    ex='<div class="main2_m_right_list clearfix ".*? src="(.*?)"'

这边涉及python的正则表达式里的知识内容有点多且复杂,往后可以在进行一个补充

表达式作用在这里边可以让我们按特定条件来选择去获取某些内容,比如获取标签中的Src,利用re模块中的findall(),根据所响应的标签内容和表达式条件的选择,返回一个包含src的列表

img_src_list=re.findall(ex,page_text,re.S)
print(img_src_list)

可以打印一下验证是否有爬取到响应的src内容

Tip有些src的是没有带https:的,需要自己循环拼接一下

接着利用.content来获取图片内容

'https://img5.uzaicdn.com/uz/navigation/productFloorRecommend/ATT0001546758.jpg?imageView2/2/w/263/h/197',

我们发现把src通过split()方法根据“/”进行分段倒叙截取第六个内容,在根据“?”截取第一个内容,就能够获取到

src中ATT0001546758.jpg这段内容,借此把它作为我们保存图片的名字

    for src in img_src_list:
       
        img_data=requests.get(url=src,headers=headers).content
        
        img_name=src.split("/")[-6]

        img_name = img_name.split("?")[0]

        img_path='./'+img_name

        #持久化储存
        with open(img_path,'wb')as fp:
            fp.write(img_data)
            print(img_name,"下载成功!")

最后保存,点击运行就成功批量下载图片,正常打开啦!

以下是原代码展示

import requests
import re

if __name__=="__main__":

    url="https://www.uzai.com/"
    headers = {
        'User-Agent': "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Mobile Safari/537.36 Edg/122.0.0.0"
    }

    #使用通用爬虫对整张页面进行爬取
    page_text=requests.get(url=url,headers=headers).text

    #使用聚焦爬虫对页面中所有图片进行爬取

    ex='<div class="main2_m_right_list clearfix ".*? src="(.*?)"'

    img_src_list=re.findall(ex,page_text,re.S)

    print(img_src_list)

    for src in img_src_list:

        img_data=requests.get(url=src,headers=headers).content

        img_name=src.split("/")[-6]
        img_name = img_name.split("?")[0]

        img_path='./'+img_name

        #持久化储存
        with open(img_path,'wb')as fp:
            fp.write(img_data)
            print(img_name,"下载成功!")

  • 13
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值