【源码】爬虫爬取B站文章图片

本文介绍了如何使用Python的requests库发送HTTP请求,配合BeautifulSoup解析HTML,从B站文章中提取并下载图片。详细步骤包括发送伪装请求、HTML解析、图片URL处理和下载图片。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

关键技术

  1. Requests库:一个简单易用的HTTP库,用于发送网络请求。
  2. BeautifulSoup库:用于解析HTML和XML文档,从中提取所需数据。
  3. OS模块:提供了多种操作文件和目录的功能。

爬虫步骤

  1. 发送HTTP请求: 使用requests.get函数,携带伪装的User-Agent头部,获取目标URL的网页源码。这是因为一些网站会根据请求的User-Agent来判断是否是爬虫访问。
  2. 解析HTML文档: 通过BeautifulSoup(html, 'html.parser')解析获取到的HTML源码,准备提取图片URL。
  3. 图片URL提取: 使用soup.find_all('img')获取所有图片标签,然后提取每个标签的图片URL。为处理可能的相对URL,我们会检查并补全URL。
  4. 创建目录并下载图片: 用os.makedirs('bilibili_images', exist_ok=True)创建一个用于存放下载图片的目录。遍历所有图片URL,用requests.get下载,并保存到指定目录。
import requests
import os
from bs4 import BeautifulSoup

def download_images(url):
    # 发送HTTP请求获取网页源代码
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'
    }
    response = requests.get(url, headers=headers)
    html = response.text

    # 使用BeautifulSoup解析HTML内容
    soup = BeautifulSoup(html, 'html.parser')

    # 创建一个目录用于保存图片
    os.makedirs('bilibili_images', exist_ok=True)

    # 找到所有图片的标签
    img_tags = soup.find_all('img')

    # 遍历所有图片标签,下载图片
    for img in img_tags:
        img_url = img.get('data-src') or img.get('src')
        if img_url.startswith('//'):
            img_url = 'https:' + img_url

        # 下载图片
        response = requests.get(img_url)
        # 提取图片文件名
        img_file = img_url.split('/')[-1]
        # 将图片保存到指定目录下
        with open('bilibili_images/' + img_file, 'wb') as f:
            f.write(response.content)
            print(f"Downloaded: {img_file}")

# 要爬取的文章URL
article_url = 'https://www.bilibili.com/read/cv18302467/'
download_images(article_url)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农之家★资源共享

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值