python 爬虫爬取知乎LOL图片(亲测)

本文介绍如何通过Python的requests和re库抓取网页中的图片数据,使用`data-actualsrc`属性定位图片URL,然后批量下载到本地,同时建议使用os模块创建单独目录存储图片。
摘要由CSDN通过智能技术生成

获取信息

访问url后按f12调试

点击network

定位图片信息:

可以看到,每个图片的名字和下载地址在标红处,示例如下:

data-actualsrc=“https://pic4.zhimg.com/v2-1681ff26afbd5f92aa5790b4dee6a63f_b.jpg

现在就是requests访问url,然后使用re正则去匹配到所有这个data-actualsrc的url

然后使用for循环批量下载这个url到本地

代码

import re
import os
import requests
url = 'https://zhuanlan.zhihu.com/p/664329877'
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'}
response = requests.get(url, headers=headers)
response.encoding = "utf-8"
# print(response.text)
parser = re.compile('data-actualsrc="(https://pic4.*?)"')
image_urls = re.findall(parser, response.text)
for image_url in image_urls:
    # print(image_url)
    image_name = image_url.split('/')[-1]
    print(f"downloading image:{image_name}")
    image_response = requests.get(image_url)
    if image_response.status_code == 200:
        with open (image_name, 'wb') as f:
            f.write(image_response.content)
        print("success")
    else:
        print("failed")
print("yes")

返回

图片都下载到了当前项目的同级目录下

这个案例print输出也是简单的,就对付一下。 

下载的路径建议使用os模块去创建个单独的目录,将图片杜下载到指定目录里

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值